政府形塑網路資訊環境 恐藉AI訓練數據影響言論

0f691b1e 76b2 40fb b38c dacea56eeb4f

0f691b1e 76b2 40fb b38c dacea56eeb4f

商傳媒|葉安庭/綜合外電報導

一項最新研究發現,政府可能透過影響人工智慧(AI)模型所學習的網路資訊環境,進而塑造其聊天機器人的輸出內容,尤其是在處理政治敏感議題時。

這項由聖地牙哥加利福尼亞大學(UC San Diego)、普渡大學(Purdue University)及NYU Center for Social Media, AI, and Politics的研究人員共同發表的研究指出,當針對中國相關的政治問題以中文提示時,人類評估者判定,有高達75.3%的回應對中國立場更為有利。相較之下,若是非中國相關的提示,此比例則無顯著差異。

研究共同作者、聖地牙哥加利福尼亞大學政治學教授瑪格麗特·E·羅伯茨(Margaret E. Roberts)闡釋了此一機制:「國家形塑資訊環境,資訊環境形塑訓練數據,而訓練數據又形塑模型的輸出。」她補充道,這並非暗示AI公司刻意討好某些政府,而是大型語言模型(LLMs)促使有權勢的行動者,更具戰略性地思考其在網路上發布的內容。

研究也擴及37個國家進行跨國比較。結果顯示,在國家語言主要集中於單一國家的情況下,來自媒體監管較嚴格的政府與機構,其在該國語言中的模型呈現會比在英文中更為有利。雖然研究作者強調這僅是相關性,但此結果與中國案例中觀察到的機制相符。

研究共同第一作者、普渡大學政治學助理教授Eddie Yang表示:「當相同的政治問題,僅因訓練數據的微小變動而產生系統性差異的回應時,這表明那些額外的文件確實產生了影響。」研究人員採用了多種方法來識別政治權力進入AI系統的途徑,包括分析開源數據、商業系統的記憶化測試、再訓練實驗、人工評估及跨國比較,且最新發布的模型也複製了這些結果。

研究共同作者、NYU Center for Social Media, AI, and Politics研究副教授所羅門·梅辛(Solomon Messing)強調:「訓練數據是現代AI的基石。如果我們想了解這些模型所反映的強大利益,我們需要知道我們是如何獲取這些數據的。這需要從訓練數據的透明度開始。」

0f691b1e 76b2 40fb b38c dacea56eeb4f

想讓品牌在新聞媒體曝光? 立即點我加入官方LINE@免費諮詢

相關新聞

最新消息