先說結論
這證明了社群媒體平台如果願意,可以透過調整他們的演算法,來減少大家對彼此的敵意和政治對立。這對社會來說,有助於提高信任,讓不同立場的人之間可以進行更健康的溝通演算法重排序對情感兩極化的影響研究(使用Gemini產生的摘要
https://www.science.org/doi/10.1126/science.adu5584
這份研究想知道什麼?
這篇論文在探討一個很重要的問題:社群媒體上的「演算法」(就是決定你先看到什麼、後看到什麼的那個系統)是不是會讓我們更討厭政治立場不同的人?以前的研究都要靠社群平台自己提供資料,但這份研究找到了一個獨立的方法來實驗。
他們做了什麼實驗?
研究人員開發了一個特別的瀏覽器外掛程式,讓 1256 位美國民眾在用 X(以前叫 Twitter)時,可以「偷偷」改變他們看到的東西。
他們使用了最新的 AI 技術(大型語言模型),來找出那些充滿「反民主」和「針對對手政黨的敵意」(我們簡稱「吵架文」)的貼文。
參與者被隨機分成兩組,進行為期一週的實驗:
減少吵架文組: 演算法會把這些充滿敵意的貼文往下藏,讓你少看到。
增加吵架文組: 演算法會把這些貼文往前推,讓你多看到。
他們發現了什麼?
實驗結果非常清楚地證明:演算法決定你看到什麼,真的會影響你對政治對手的感覺。
如果你被分配到少看「吵架文」的那一組,一週後,你對對立政黨的人會變得比較友善、沒那麼討厭。
如果你被分配到多看「吵架文」的那一組,你對對立政黨的人就會變得更冷漠、更討厭。
這種情緒上的變化很明顯,幅度大約等於美國人花三年時間才會累積的政治對立程度。而且,不論你是哪個黨派的支持者,結果都一樣。此外,少看吵架文也會讓你減少生氣和難過等負面情緒。
這代表什麼?
這證明了社群媒體平台如果願意,可以透過調整他們的演算法,來減少大家對彼此的敵意和政治對立。這對社會來說,有助於提高信任,讓不同立場的人之間可以進行更健康的溝通。