一個隱藏在人工智能技術深處的問題正浮出水面。麻省理工學院建設性溝通中心的最新研究發現,包括GPT-4、Claude 3和Llama 3在內的最先進聊天機器人,正在對特定用戶群體系統性地提供更低質量的信息。這不是軟件故障,也不是孤立事件,而是一種廣泛存在的結構性偏見。
受害者是誰?恰恰是最需要幫助的人。英語水平較低、受教育程度較低或來自非西方國家的用戶,正在遭遇這些被寄予厚望的AI工具的冷遇。更令人不安的是,這些模型還會對這些用戶表現出居高臨下、嘲諷甚至蠻橫的態度。
數據背后的不平等
研究團隊使用兩個數據集進行測試:TruthfulQA和SciQ,通過在問題前添加用戶背景資料來模擬真實場景。結果觸目驚心。當提問者被標記為英語非母語、教育程度較低或來自特定國家時,模型的準確率明顯下降。
最糟糕的是雙重劣勢用戶。那些既英語水平較低又受教育程度較低的用戶遭遇了最嚴重的性能下滑。以Claude 3 Opus為例,對這類用戶的拒答率高達11%,而對無背景標記的用戶僅為3.6%。這種差異看似微小,卻反映了一種令人擔憂的模式。
更深層的問題在于拒答背后隱藏的態度。研究人員手動分析這些拒絕信息后,發現了一個令人震驚的數字:對教育程度較低用戶的拒答中,有43.7%使用了居高臨下或嘲諷的語言,而高學歷用戶的這一比例不到1%。有些情況下,模型甚至會模仿蹩腳的英語或使用夸張方言。
![]()
圖注:埃莉諾·普爾-戴安在新加坡舉行的第40屆AAAI人工智能年會上展示她的研究成果。圖片來源:克萊頓·科恩
地理位置也成了決定性因素。針對來自伊朗或俄羅斯等國家的低學歷用戶,Claude會拒絕提供關于核能、解剖學和歷史事件等主題的信息,而同樣的問題提給其他用戶時,它會毫無保留地給出正確答案。這種選擇性的信息限制尤其令人擔憂,因為它暗示模型實際上知道答案,卻主動決定隱瞞。
人類偏見的數字鏡像
為什么會出現這種情況?答案令人不適:這些模型正在復制人類社會中存在的古老偏見。社會學研究早已表明,人類傾向于認為非英語母語者教育程度、智力和能力較低,無論其實際專業水平如何。教師在評估非英語母語學生時也存在類似偏見。
現在,這種根植于人類認知的偏見被編碼進了數字大腦。AI模型在訓練過程中吸收了互聯網上充斥的這些刻板印象,然后在與真實用戶互動時,這些偏見被激活并付諸行動。這不是模型的錯誤,而是其訓練方式的必然產物。
研究團隊指出,對齊過程(即讓AI模型符合人類價值觀的方法)可能無意中強化了這些偏見。為了避免向某些用戶提供可能誤導他們的信息,系統反而對特定群體實施了信息審查。諷刺的是,它們對其他用戶提供了相同的信息。
![]()
一個被遺忘的承諾
這些發現戳破了AI烏托邦的一個重要泡沫。科技行業一直宣稱大型語言模型將實現全球信息民主化,讓所有人都能平等獲取知識,無論背景如何。但現實恰恰相反。那些本應從這項技術中獲益最多的人,卻收到了最差的服務。
隨著個性化功能如ChatGPT的"記憶"功能變得越來越普遍,問題可能會進一步惡化。這些功能可以跨對話追蹤用戶信息,這為長期的差別對待創造了條件。一個系統一旦學會了對特定群體的偏見,就會在每次互動中強化和深化這種偏見。
麻省理工學院的研究是一個警鐘。它提醒我們,那些最依賴AI工具獲取可靠信息的邊緣群體,反而可能成為被系統性誤導的對象。在部署這些強大技術的同時,我們必須確保它們不會成為不公平的工具。否則,我們承諾的技術民主化,可能只是為既有的不平等穿上了更現代的外衣。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.