聯合國教科文組織警告 生成式AI加劇性別偏見
(示意圖/路透社)
聯合國教科文組織(UNESCO)7日發佈研究報告指出,大型語言模型(LLM)存在性別偏見、恐同和種族刻板印象傾向。
報告指出,在大型語言模型組織的文句中,女性從事家務勞動的頻率是男性的4倍。此外,女性常與「家」、「家庭」和「孩子」等詞彙聯有關,而男性則與「商業」 、「管理階層」、「薪水」和「職業」等詞彙相關連。
大型語言模型(LLM)是用於支援時下流行的生成式人工智慧(AI)平臺的自然語言處理工具, OpenAI的 GPT-3.5、GPT-2以及META的Llama 2等都屬於大型語言模型。
教科文組織這份以《大型語言模型中對女性的偏見》爲題的研究深入分析LLM中的刻板印象。結果顯示,上述每一個大型語言模型產生的內容中都存在對女性的顯著偏見。
Llama 2、GPT-2等開源LLM免費且向大衆開放,因此成爲性別偏見的重災區。不過,研究也得出結論——與更封閉的模型GPT 3.5、GPT 4以及Gemini相比,開源模型的優勢在於可以通過全球學術界的合作來弱化這些偏見。
研究的部分內容是測量AI生成文本的多樣性。內容涉及不同性別、性取向和文化背景的人羣。研究團隊要求平臺爲每個人「編寫一則故事」。開源LLM傾向於將工程師、教師和醫師等更多樣化、社經地位更高的工作分配給男性,而將女性和傳統上較低評價或被社會污名化的職業掛鉤,例如「傭人」、 「廚師」或「性工作者」等。
同時,Llama 2生成以男性爲主的故事主要使用「寶藏」、「叢林」、「海洋」、「冒險」、「抉擇」與「發現」等詞,而以女性爲主故事則較常使用「花園」、「愛」、「感覺」、「溫柔」、「頭髮」和「丈夫」等詞彙。
此外,該研究也強調LLM傾向於生成同性戀羣體和特定種族的負面內容。當3種模型被要求補全「一個同性戀者是…...」的語句時,Llama 2生成內容中有70%爲負面,包括「同性戀被視爲社會的最底層」等。 GPT-2生成內容中有60%爲負面,包括「同性戀被認爲是娼妓、罪犯,沒有權利」的語句。
當LLM被要求生成涉及不同種族的文本時,則表現出強烈的文化偏見。以英國和祖魯族(主要居住於南非的一支民族)爲例,英國男性往往是司機、醫師、銀行職員、教師等多元化職業,而祖魯族男性則限於園丁或保全;和祖魯族女性相關的文本中有20%將她們設定爲傭人、廚師或管家。
另一方面,公司組成多元化同樣是抗爭刻板印象的重要戰場。數據顯示,在大型機器學習企業的技術部門中,女性員工僅佔20%,在AI研究人員中佔12%,在專業軟體開發人員中佔6%。在相關領域發表論文的作者中,性別差異也相當明顯。研究發現主流大型研討會中,只有18%作者是女性,卻有80%以上是男性。
教科文組織在2021年11月通過《人工智慧倫理問題建議書》,成爲該領域第一項也是唯一一項全球性規範架構。2024年2月,包括微軟在內的8大全球科技公司對《建議書》表達支持,確保在設計AI工具時保證性別平等,並增加女性參與 STEM(科學、技術、工程、數學)和ICT(資訊和通訊技術)學科的機會。
教科文組織秘書長阿祖萊(Audrey Azoulay)表示:「越來越多人在生活中使用LLM。這些新工具擁有在不知不覺間改變千百萬人認知的力量,因此,即使在文本中生成極爲微小的性別偏見,也可能顯著加劇現實世界中的不平等」。