生成式AI普及 臺大研究:參與者會記住錯誤資訊

聊天機器人ChatGPT已被民衆廣泛運用。(本報資料照片)

生成式AI愈來愈被廣泛使用,臺大心理系教授黃從仁的研究團隊11月20日在《美國心理學家》期刊發表最新的聊天機器人研究,對話機器人的訊息中有77%的錯誤詞彙成爲參與者的記憶,且即使加註一次性警語,也無法減少錯誤的記憶。

民衆對使用AI越來越熟悉,但也難以避免AI系統與使用者互動時,會產生錯誤資訊回答使用者。而生成式AI帶有錯誤資訊,是否會在人機互動時,潛移默化的影響使用者,是必須重視的事。

黃從仁的研究團隊使用人工可編輯程式的人形機器人RoBoHoN(夏普公司所研發)與臺大學生對話,檢查機器人提供情感和價值中立但內容錯誤的訊息中,是否有預告的警語(例如,警告參與者要對錯誤資訊持保留的態度),以及檢查這些訊息中有多少比例會在之後的認知測驗中,變成一個人記憶的錯誤資訊。

黃從仁表示,聊天機器人會回答錯誤資訊已不是新聞,但唯有會進到人們記憶中的錯誤資訊纔會影響人們的決策。此研究透過兩組實驗,在文獻中首次證實:一、機器人提供的錯誤資訊中,有7、8成會變成人們的記憶;二、即便機器人在提供錯誤資訊前已抱持自我懷疑並提出警告,但這些警告只能增加人們的戒心,並無法真正避免錯誤資訊成爲記憶。

臺灣科技媒體中心(SMC)請人工智慧專家解析這項研究,臺大資工系副教授陳縕儂說,現今生成式AI越來越普遍,而生成式AI系統在與使用者互動時,不可避免的會產生錯誤的腦補資訊來回答使用者。這種機器生成帶有錯誤資訊的內容,是否會在人機互動中潛移默化的影響使用者,是規範當代AI產品非常重要的考量。

政大心理系副教授楊立行說,對話機器人如ChatGPT都是在學習人類創造出的資訊,可以當它是部百科全書,只是裡面的知識並未都經過科學機構的驗證。事實上,不論是對真人還是機器人,當民衆在接收他(它)們提供的訊息時,都應該像科學家一樣保持一定程度的懷疑精神,儘量參考多個不同來源,交叉比對才能作出比較正確的判斷。