OpenAI ChatGPT 在心理治療領域通過圖靈測試,AI 比人類更具同理心
科技媒體 The Decoder 昨日(2 月 16 日)發佈博文,報道稱最新研究表示,OpenAI ChatGPT 通過了治療師領域的圖靈測試,結果顯示人們難以區分 ChatGPT 和人類治療師提供的治療建議,而且人工智能的回答通常被認爲更具同理心。
IT之家注:研究人員應用圖靈測試的概念,要求 830 名參與者區分 ChatGPT 和人類治療師的回覆。結果顯示,參與者識別正確率略高於隨機猜測:正確識別出人類治療師回覆的概率爲 56.1%,正確識別 ChatGPT 回覆的概率爲 51.2%。
研究稱 ChatGPT 的回覆在治療聯盟、同理心和文化勝任力等方面的得分高於人類專家,其回覆通常更長,語氣更積極,使用更多名詞和形容詞,讓其顯得更詳細、更具同理心。
研究揭示了一種偏見:當參與者認爲他們閱讀的是人工智能生成的回覆時,無論實際作者是誰,他們都會給出較低評分。反之,當人工智能生成的回覆被誤認爲是人類治療師所寫時,則會獲得最高評分。
這並非首個證明人工智能在諮詢角色中具有潛力的研究。墨爾本大學和西澳大利亞大學的研究發現,ChatGPT 在社會困境方面提供的建議比人類專欄作家更均衡、全面和更具同理心,偏好率在 70% 到 85% 之間,儘管對人工智能回覆的評價更高,但大多數參與者仍然表示更喜歡人類顧問。
本文源自:IT之家