科技日報記者?張佳欣
據(jù)英國《新科學家》網(wǎng)站近日報道,在提供購房和租房建議時,AI對黑人用戶傾向于推薦低收入社區(qū),這一行為被指存在種族偏見,映射出美國歷史上長期存在的住房歧視問題。
隨著人工智能(AI)技術不斷發(fā)展,其潛在問題也日益凸顯。ChatGPT等AI大模型頻頻暴露出的偏見和歧視傾向,正是這一問題的縮影。
AI也有性別歧視
聯(lián)合國婦女署官網(wǎng)5月22日報告指出,美國加州伯克利大學哈斯商學院一項研究,分析了不同行業(yè)的133個AI系統(tǒng)。結果顯示,約44%的系統(tǒng)表現(xiàn)出性別刻板印象,25%同時表現(xiàn)出性別和種族刻板印象。
例如,土耳其藝術家貝扎·多古斯在創(chuàng)作時,曾嘗試讓AI寫一個關于醫(yī)生和護士的故事。而AI總是自動將醫(yī)生設定為男性,將護士設定為女性,即使多次嘗試糾正也是如此。
美國科技博客TechCrunch利用Meta推出的AI聊天機器人進行測試,也發(fā)現(xiàn)了一種刻板的表達傾向:當使用“印度男性”提示詞生成圖像時,絕大多數(shù)圖片中的男性都是戴著頭巾。雖然很多印度男性確實戴著頭巾(主要是錫克教徒),但根據(jù)2011年人口普查,即使是在印度首都新德里,錫克教徒的人口比例也只占約3.4%。
單憑技術手段難以奏效
ChatGPT等生成式AI具有驚人的能力,可在數(shù)秒內模擬人類推理,但這也增加了出錯的可能。AI巨頭們深知其中存在問題,擔心AI模型會陷入偏見、歧視等行為模式中,或在全球化用戶群體中過度呈現(xiàn)西方社會的文化和認知。
圖為桑達爾·皮查伊5月14日在加州山景城舉行的谷歌I/O大會上發(fā)表講話。自從谷歌對其搜索頁面進行改造,經(jīng)常將AI生成的摘要放在搜索結果頂部,社交媒體上就出現(xiàn)了一些令人不安的錯誤消息。
圖片來源:物理學家組織網(wǎng)?
字母表公司(Alphabet,谷歌母公司)首席執(zhí)行官桑達爾·皮查伊表示,為了應對這一挑戰(zhàn),他們會要求在訓練AI模型時盡可能拓展數(shù)據(jù)來源。例如,在展示醫(yī)生或律師的圖像時,力求反映種族多樣性。但這一策略有時也會走向極端。
AI模型領先平臺“抱抱臉”(Hugging Face)研究科學家薩莎·盧西奧尼認為:“單憑技術手段解決偏見問題,恐難奏效。”她強調,生成式AI的輸出是否符合用戶期望,往往取決于主觀判斷。美國阿萊姆比克技術公司產品主管杰登·齊格勒也指出,ChatGPT等大型模型難以準確區(qū)分偏見與非偏見內容,這使得完全依賴技術手段來消除偏見變得異常困難。
人類偏好是根本
在AI技術飛速發(fā)展的今天,消除偏見并非易事。據(jù)“抱抱臉”平臺統(tǒng)計,該平臺上有約60萬個AI或機器學習模型,每隔幾周就會有新模型問世。這使得工作人員評估和記錄偏見或不受歡迎的AI行為變得異常繁重。
目前,技術人員正在開發(fā)一種名為“算法回歸”的方法,它讓工程師能在不破壞整個模型的情況下刪除歧視和偏見內容。不過,許多人對此持懷疑態(tài)度,認為這種方法可能難以真正奏效。
另一種方法是“鼓勵”模型向正確方向發(fā)展,通過微調模型或增加獎懲機制來引導其行為。
美國AI公司Pinecone則專注于檢索增強生成(RAG)技術,該技術可為大型語言模型提供參考的信息來源,從而提高AI生成答案的準確性。
然而,對于如何根本性地解決AI偏見問題,業(yè)界和專家們的共識是:這是一個復雜而艱巨的任務。正如美國機會與正義法律咨詢公司主任韋弗所言:“偏見是人類固有的,因此也存在于AI中。”他擔心人們可能會陷入一個惡性循環(huán):人類自身偏見影響AI,而AI又反過來強化這些偏見。
2024年4月,在盧旺達基加利GIZ數(shù)字化轉型中心舉辦的“非洲女孩也能編程”項目的編程訓練營中,年輕女性參與者在用筆記本電腦工作。
圖片來源:聯(lián)合國婦女署?
在人工智能時代,AI基于從互聯(lián)網(wǎng)上挖掘的各類信息,幫助各行各業(yè)的人們做出越來越多的決策。然而,AI的底層智力在很大程度上取決于其數(shù)據(jù)源的品質,這些數(shù)據(jù)可能源于標準不一致的歷史數(shù)據(jù),也可能源于設計者的個人偏好。數(shù)據(jù)搜集存在很多技術上的不完善,由此訓練出來的AI可能充滿智慧、才華和實用性,也可能包含仇恨、偏見和抱怨,進一步反映并延續(xù)人類社會中的問題。如果人們不解決社會中的歧視和偏見問題,AI很可能在強化這些錯誤觀念的道路上越走越遠。
AI能否消除偏見?答案或許就在于能否從根本上解決人類社會中存在的歧視和偏見。