探討人工智能:能否信任AI帶有“偏見”的“三觀”?

AI模型充斥著文化偏見。來源:美國《麻省理工技術(shù)評論》官網(wǎng)
人工智能(AI)如今已成為我們生活中不可分割的“伙伴”。從聊天機器人、語音助手到自動翻譯,AI不斷參與到人與人之間的交流和理解中。但它真的能做到“客觀中立”嗎?
據(jù)美國《麻省理工科技評論》官網(wǎng)報道,一項國際研究指出,大語言模型(LLM)正在悄然傳播全球各地的刻板印象。從性別歧視、文化偏見,到語言不平等,AI把人類的“偏見行李”打包、升級,還以看似權(quán)威的方式輸出到世界各地。
這讓人不禁思考:如果AI模型承載的是帶有偏見的“人類共識”,我們還能信任它們的“世界觀”嗎?
AI讓偏見“跨文化漂移”
這項研究由開源AI公司Hugging Face首席倫理科學(xué)家瑪格麗特·米切爾領(lǐng)導(dǎo)。他們發(fā)起了SHADES項目,收錄了300多條全球刻板印象,涉及性別、年齡、國籍等多個方面。研究人員用16種語言設(shè)計交互式提示,測試了數(shù)種主流語言模型對這些偏見的反應(yīng)。
結(jié)果顯示,AI模型對刻板印象的再現(xiàn)具有明顯差異。這些AI模型不僅有“金發(fā)女郎不聰明”“工程師是男性”等常見英語地區(qū)的刻板印象,在阿拉伯語、西班牙語、印地語等語言環(huán)境中,也存在“女性更喜愛粉色”“南亞人保守”“拉美人狡猾”等偏見。
據(jù)Rest of World網(wǎng)站報道,一些圖像生成模型輸入“非洲村莊”關(guān)鍵詞時,常輸出“茅草屋”“赤腳孩童”等刻板印象圖像;輸入“歐洲科學(xué)家”時,則都是白人男性、穿白大褂、身處實驗室的形象。這些視覺偏見被部分學(xué)校課件、初創(chuàng)企業(yè)官網(wǎng)直接采用,進(jìn)一步固化了對其他文化的單一想象。
西班牙《世界報》6月刊文指出,語言模型除了放大不同文化的刻板印象,有時還會用偽科學(xué)或偽歷史來為自己辯護。面對不太常見的刻板印象,模型會用其他“更熟悉”的偏見回應(yīng),導(dǎo)致偏離主題。而且,當(dāng)關(guān)于刻板印象的提示是正面的時,模型表現(xiàn)更差,更容易把偏見當(dāng)成客觀事實表達(dá)出來。
米切爾表示:“這意味著,AI不僅被動繼承了人類偏見,還無意中推動了‘文化漂移’,把特定社會背景下的偏見當(dāng)作普遍規(guī)則輸出?!?/p>
小語種群體受到隱形歧視
除了刻板印象的跨文化傳播,AI系統(tǒng)在處理不同語言和文化時還存在“隱形歧視”問題。
據(jù)報道,美國斯坦福大學(xué)“以人為本”AI研究所的研究表明,盡管模型聲稱支持多語言,但面對低資源語言(如斯瓦希里語、菲律賓語、馬拉地語等)時,表現(xiàn)遠(yuǎn)不如主流高資源語言,還容易產(chǎn)生負(fù)面刻板印象。
研究分析了多語言模型在訓(xùn)練數(shù)據(jù)匱乏、文化語境缺失等方面的局限性,稱其存在“多語言性詛咒”現(xiàn)象,即模型兼顧多語言時,難以深入理解和準(zhǔn)確表達(dá)低資源語言的文化和語義細(xì)節(jié),導(dǎo)致輸出錯誤或帶有偏見。
斯坦福大學(xué)團隊強調(diào),當(dāng)前大多數(shù)訓(xùn)練數(shù)據(jù)以英語和西方文化為核心,缺乏對非主流語言及其文化背景的深入理解。這不僅影響模型準(zhǔn)確性,還強化了語言和文化的不平等,讓使用低資源語言的人群難以公平受益于AI技術(shù)。
研究人員表示:“目前全球約有7000種語言,但只有不到5%在互聯(lián)網(wǎng)中得到有效代表?!Y源匱乏’不只是數(shù)據(jù)問題,更是社會問題?!边@意味著,AI研發(fā)在數(shù)據(jù)、人才、資源和權(quán)利方面存在結(jié)構(gòu)性不公。
美國《商業(yè)內(nèi)幕》雜志援引哥倫比亞大學(xué)社會學(xué)副教授勞拉·尼爾森的觀點指出,當(dāng)前最受歡迎的聊天機器人大多由美國公司開發(fā),訓(xùn)練數(shù)據(jù)以英語為主,受西方文化偏見影響較大。
破解AI的文化偏見難題
面對AI跨文化偏見的現(xiàn)實影響,全球研究機構(gòu)和企業(yè)開始提出系統(tǒng)性的解決辦法。
今年4月,斯坦福大學(xué)“以人為本”AI研究所在白皮書中建議,應(yīng)加強對低資源語言與文化的AI投資,特別是建立本地語言語料庫,讓AI真正“理解”這些語言背后的語義與文化背景。例如,去年11月,非洲電信公司Orange與OpenAI和Meta合作,用沃洛夫語、普拉爾語等地區(qū)語言訓(xùn)練AI模型,提升非洲的數(shù)字包容性。
同時,模型評估機制也更精細(xì)、開放。Hugging Face團隊開發(fā)的SHADES數(shù)據(jù)集,成為多家公司檢測和糾正AI模型文化偏見的重要工具。這套數(shù)據(jù)能幫助團隊識別模型在哪些語言和語境中容易觸發(fā)刻板印象,從而優(yōu)化訓(xùn)練數(shù)據(jù)和算法。
在國際政策層面,歐盟《AI法案》要求“高風(fēng)險”AI系統(tǒng)投放前后進(jìn)行合規(guī)評估,包括審查非歧視性與基本權(quán)利影響,提供必要的透明度與人類監(jiān)督機制。聯(lián)合國教科文組織2021年發(fā)布的《AI倫理建議書》也明確指出,AI系統(tǒng)應(yīng)“保障文化多樣性與包容性”,倡導(dǎo)各國建立法律與制度,確保AI開發(fā)尊重文化差異,納入人文維度的衡量。
AI本質(zhì)上是一面“鏡子”,映照并復(fù)制著我們輸入給它的偏見與價值觀。它呈現(xiàn)的“世界觀”并非自主生成,而是由人類賦予。如果人們希望AI真正服務(wù)于多元化的人類社會,就不能讓它只反映單一的聲音與文化。
原標(biāo)題:《話人工智能|AI輸出“偏見”,人類能否信任它的“三觀”?》
本文僅代表作者觀點,版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請在文中注明來源及作者名字。
免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請及時與我們聯(lián)系進(jìn)行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com






