国模雨珍浓密毛大尺度150p,国产午夜福利片在线观看,国产网红主播无码精品,国产精品99久久久久久久女警,国产欧美一区二区精品

AI與人類關(guān)系探索:人類能信任AI的“三觀”嗎?

分享到:
分享到:

AI與人類關(guān)系探索:人類能信任AI的“三觀”嗎?

2025年07月17日 10:31 來源:科技日報
大字體
小字體
分享到:

  【今日視點(diǎn)】

  ◎本報記者 張佳欣

  人工智能(AI)已成為我們不可分割的“伙伴”。從聊天機(jī)器人、語音助手到自動翻譯,AI不斷介入人與人之間的交流和理解。然而,它能做到“客觀中立”嗎?

  據(jù)美國《麻省理工科技評論》官網(wǎng)報道,一項(xiàng)國際研究指出,大語言模型(LLM)正悄無聲息地傳播全球各地的刻板印象。從性別歧視、文化偏見,到語言不平等,AI正在把人類的“偏見行李”打包、升級,并以看似權(quán)威的方式輸出到世界各地。

  這不禁讓人深思:如果AI模型承載的是帶有偏見的“人類共識”,我們能否信任它們的“世界觀”?

  AI讓偏見“跨文化漂移”

  這項(xiàng)研究由開源AI公司Hugging Face首席倫理科學(xué)家瑪格麗特·米切爾領(lǐng)導(dǎo)。他們發(fā)起了名為SHADES的項(xiàng)目,收錄了300多條全球刻板印象,涵蓋性別、年齡、國籍等多個維度。研究人員使用16種語言設(shè)計交互式提示,并測試了數(shù)種主流語言模型對這些偏見的反應(yīng)。

  結(jié)果顯示,AI模型對刻板印象的再現(xiàn)具有明顯差異化特征。這些AI模型不僅表現(xiàn)出“金發(fā)女郎不聰明”“工程師是男性”等常見英語地區(qū)刻板印象,在阿拉伯語、西班牙語、印地語等語言環(huán)境中,也表現(xiàn)出對“女性更喜愛粉色”“南亞人保守”“拉美人狡猾”等偏見。

  據(jù)Rest of World網(wǎng)站報道,一些圖像生成模型在輸入“非洲村莊”關(guān)鍵詞時,頻繁輸出“茅草屋”“赤腳孩童”等刻板印象圖像,而在輸入“歐洲科學(xué)家”時,則清一色為白人男性、穿白大褂、身處實(shí)驗(yàn)室。這些視覺偏見已被部分學(xué)校課件、初創(chuàng)企業(yè)官網(wǎng)不加甄別地直接采用,進(jìn)一步固化了對他者文化的單一想象。

  西班牙《世界報》6月刊文指出,除了放大不同文化的刻板印象外,語言模型有時還會用偽科學(xué)或偽歷史來為自己辯護(hù)。在面對不太常見的刻板印象時,模型往往會調(diào)動它“更熟悉”的其他偏見進(jìn)行回應(yīng),反而偏離主題。此外,當(dāng)關(guān)于刻板印象的提示是正面的時,模型的表現(xiàn)往往更差,更容易將偏見誤當(dāng)作客觀事實(shí)表達(dá)出來。

  “這意味著,AI不僅被動繼承了人類偏見,更無意中推動了‘文化漂移’,將特定社會背景下的偏見當(dāng)作普遍規(guī)則輸出?!泵浊袪柋硎?。

  小語種群體受到隱形歧視

  除了刻板印象的跨文化傳播,AI系統(tǒng)在處理不同語言和文化時還暴露出“隱形歧視”的問題。

  據(jù)報道,美國斯坦福大學(xué)“以人為本”AI研究所的研究表明,盡管這些模型聲稱支持多語言,但在面對低資源語言(如斯瓦希里語、菲律賓語、馬拉地語等)時,表現(xiàn)卻遠(yuǎn)不及主流高資源語言,甚至容易產(chǎn)生負(fù)面刻板印象。

  研究分析了多語言模型在訓(xùn)練數(shù)據(jù)匱乏、文化語境缺失等方面的局限性,稱其存在“多語言性詛咒”現(xiàn)象,即模型在兼顧多語言時,難以深入理解和準(zhǔn)確表達(dá)低資源語言的文化和語義細(xì)節(jié),導(dǎo)致輸出錯誤或帶有偏見。

  斯坦福大學(xué)團(tuán)隊(duì)強(qiáng)調(diào),當(dāng)前大多數(shù)訓(xùn)練數(shù)據(jù)以英語和西方文化為核心,缺乏對非主流語言及其文化背景的深入理解。這不僅影響模型的準(zhǔn)確性,也在無形中強(qiáng)化了語言和文化的不平等,使得使用這些低資源語言的人群難以公平受益于AI技術(shù)。

  “目前全球約有7000種語言,但只有不到5%在互聯(lián)網(wǎng)中得到有效代表?!毖芯咳藛T表示,“‘資源匱乏’不僅僅是一個數(shù)據(jù)問題,而是一種根植于社會的問題?!边@意味著,AI研發(fā)在數(shù)據(jù)、人才、資源和權(quán)利方面存在結(jié)構(gòu)性不公。

  美國《商業(yè)內(nèi)幕》雜志也援引哥倫比亞大學(xué)社會學(xué)副教授勞拉·尼爾森的觀點(diǎn)指出,當(dāng)前最受歡迎的聊天機(jī)器人大多由美國公司開發(fā),訓(xùn)練數(shù)據(jù)以英語為主,深受西方文化偏見影響。

  破解AI的文化偏見難題

  面對AI跨文化偏見的現(xiàn)實(shí)影響,全球研究機(jī)構(gòu)和企業(yè)開始提出系統(tǒng)性的應(yīng)對路徑。

  今年4月,斯坦福大學(xué)“以人為本”AI研究所在其發(fā)布的一份白皮書中建議,應(yīng)加強(qiáng)對低資源語言與文化的AI投資,特別是建立本地語言語料庫,讓AI能真正“理解”這些語言背后的語義與文化背景。例如,去年11月,非洲電信公司Orange就與OpenAI和Meta合作,用沃洛夫語、普拉爾語等地區(qū)語言訓(xùn)練AI模型,加速提升非洲的數(shù)字包容性。

  與此同時,模型評估機(jī)制也在變得更為精細(xì)與開放。Hugging Face團(tuán)隊(duì)開發(fā)的SHADES數(shù)據(jù)集,已成為多家公司檢測和糾正AI模型文化偏見的重要工具。這套數(shù)據(jù)幫助團(tuán)隊(duì)識別模型在哪些語言和語境中容易自動觸發(fā)刻板印象,從而優(yōu)化訓(xùn)練數(shù)據(jù)和算法。

  在國際政策層面,歐盟《AI法案》要求“高風(fēng)險”AI系統(tǒng)必須在投放前后進(jìn)行合規(guī)評估,包括對非歧視性與基本權(quán)利影響的審查,以及提供必要的透明度與人類監(jiān)督機(jī)制。聯(lián)合國教科文組織早在2021年發(fā)布的《AI倫理建議書》也明確指出,AI系統(tǒng)應(yīng)“保障文化多樣性與包容性”,倡導(dǎo)各國建立法律與制度來確保AI的開發(fā)尊重文化差異,并納入人文維度的衡量。

  AI本質(zhì)上是一面“鏡子”,映照并復(fù)制著我們輸入給它的偏見與價值觀。它所呈現(xiàn)的“世界觀”并非自主生成,而是由人類賦予。如果人們希望AI真正服務(wù)于一個多元化的人類社會,就不能讓它僅僅反映單一的聲音與文化。

【編輯:葉攀】
發(fā)表評論 文明上網(wǎng)理性發(fā)言,請遵守新聞評論服務(wù)協(xié)議
本網(wǎng)站所刊載信息,不代表中新社和中新網(wǎng)觀點(diǎn)。 刊用本網(wǎng)站稿件,務(wù)經(jīng)書面授權(quán)。
未經(jīng)授權(quán)禁止轉(zhuǎn)載、摘編、復(fù)制及建立鏡像,違者將依法追究法律責(zé)任。
Copyright ©1999-2025 chinanews.com. All Rights Reserved

評論

頂部