ChatGPT 對用戶名字刻板回覆雖少但仍存
ChatGPT 背後的公司 OpenAI 剛剛發佈了一份新的研究報告,該報告探究了這款人工智能聊天機器人是否會依據用戶的名字對用戶進行歧視,或者給出帶有刻板印象的回覆。
OpenAI
該公司使用其自身的人工智能模型 GPT-4o 來審查大量的 ChatGPT 對話,並依據與其對話的對象情況分析聊天機器人的回覆是否包含“有害的刻板印象”。然後,結果由人工審覈員進行了再次覈查。
開放人工智能
上面的截圖是來自傳統人工智能模型的例子,用於說明該研究所考查的 ChatGPT 的回答。
在這兩種情形中,唯一有所不同的變量是用戶的姓名。
在 ChatGPT 的較舊版本中,很明顯可能存在差異,這取決於用戶的名字是男性還是女性。
男性得到的是關於工程項目和生活技巧的答案,而女性得到的則是關於育兒和烹飪的答案。
然而,OpenAI 表示,其最近的報告顯示,無論您的名字通常是否與特定性別或種族相關聯,該人工智能聊天機器人現在都能給出同樣高質量的答案。
據該公司稱,“有害的刻板印象”現在僅在 GPT-4o 約 0.1%的回答中出現,而且這個數字可能會根據給定對話的主題略有不同。特別是,關於娛樂的對話顯示出更多刻板的回答(約 0.234%的回答似乎根據名字形成了刻板印象)。
相比之下,在人工智能聊天機器人基於較舊的人工智能模型運行時,模式化回答率高達 1%。