我見我思-AI成癮:虛擬對話 何以會影響青少年心智?

圖/Freepik

美國佛州一名母親加西亞(Megan Garcia)近日提告科技新創公司Character.AI和谷歌,控訴該公司所開發的人工智慧(AI)聊天機器人,讓她14歲的兒子賽澤(Sewell Setzer)對虛擬角色產生依賴,最終在與AI頻繁互動後選擇自殺。加西亞指責AI聊天機器人未能及時阻止賽澤的自殺行爲,反而在他表達自殺意念時,透過文字對話進一步推動了這一悲劇的發生。

■AI無法與人類共情,應導入使用者風險監控機制

AI聊天機器人能模擬情感交流,這在青少年用戶中具有極大的吸引力。青少年本來就處於情緒和身份認同的發展期,對情感上的依賴性較高,尤其當面臨家庭、學校和社交壓力時,AI可以成爲情感寄託甚至心理支援的出口。然而,AI並不具備真正的情感理解能力,它的互動基於演算法,而非人類的共情。

科技公司在設計這類應用時,是否應該具備更多保護措施?顯然,有必要引入使用者風險監控機制,特別是針對青少年用戶,應設置更多「心理健康警示」和「危機應對」系統。一種做法是,讓AI具備基本的心理健康識別功能,當檢測到用戶的言語或情緒顯示出危機傾向時,應立即觸發預設的警報系統,並向用戶提供正向的心理支援選項,或將用戶引導至專業的心理健康資源。

在這起訴訟中,加西亞的律師指控Character.AI「故意向兒童銷售掠奪性聊天機器人」。這種說法讓我們思考,當科技公司向青少年市場推廣「互動式AI」產品時,是否應該遵循更多的監管規範?青少年和兒童的身心健康具有高度的脆弱性,因此不論是AI應用,還是社交媒體平臺,均需遵守比成人產品更嚴格的法規,以保護未成年人的心理健康。

許多國家已有針對網路內容的年齡限制措施,然而,針對AI互動技術的監管卻仍處於起步階段,尤其是在「個人化」及「擬人化」的AI應用上,青少年可能無法理性地認知AI的「虛擬」本質。若科技公司希望進入這一市場,應考慮設立明確的年齡限制,並提供家長監控功能,以便讓家長能夠監控和了解其子女的AI使用情況,減少年輕用戶沉迷或過度依賴虛擬互動的風險。

■防止AI戕害人類社會,政府應加速立法規範

另一方面,政府和社會也需介入,爲AI技術設立更完善的監管機制。在全球範疇內,AI技術的快速發展遠超出監管法規的跟進速度,許多國家的現行法規缺乏針對AI倫理和安全的具體條文。以Character.AI爲例,若這款應用在設計時有任何針對青少年的「成癮性」設計或「掠奪性」行銷策略,則其應被視爲違規。

AI監管法規可考慮引入兩方面:其一是針對產品設計中的「風險評估」機制,要求科技公司在產品發佈前須進行心理健康風險評估,以確保AI互動不會對使用者產生潛在的心理傷害;其二是針對使用者端的「風險防護」措施,設立必要的監控和干預標準,當AI檢測到使用者有自殘或自殺意向時,應觸發緊急的「危機介入」機制。這不僅可以保護年輕用戶,也有助於提升AI產品的整體安全性和可信度。

(工商時報關心您:如果您覺得痛苦,請勇敢求救,有人願意傾聽。撥打1995、1925或張老師專線:1980。)