AI不僅能認臉,還能“讀心”

近日,《自然》雜誌發表了一篇論文利用人工智能研究性格和麪部特徵之間的關係。研究團隊徵集了12000多名志願者,利用人工智能技術通過31000多張自拍學習了128種人臉特徵,並且將志願者的人格特徵分爲五類,即責任心神經質外向性、親和性開放性結果顯示,AI在基於靜態面部圖像預測性格方面的準確率達到了58%,其中對於責任心的準確率高於其他四個人格特徵。用AI識別性格,這種“玄乎”的操作讓人不禁聯想到之前在網上大爲流行的“AI相面”,而事實證明,利用AI相面是假,坑錢是真。

那麼這次《自然》雜誌發表的研究成果和“AI相面”有哪些區別呢,我們是否真的可以通過面部特徵窺見人心

通過映射函數確定面部和性格關係

“‘AI相面’並不可靠,大多是數據擬合出來的一個牽強附會的結果。”中國科學院自動化研究所研究員孫哲南接受科技日報記者採訪時表示。

此前已有媒體報道了“AI相面”的“吸金套路及其分工明確的生意鏈。北京理工大學教授翁鼕鼕接受媒體採訪時也表示,面部識別雖然是身份識別的主流方向,但用於看相併沒有科學依據,娛樂性質更多一點。這樣的程序開發門檻並不高,在網購平臺花幾百到幾千元購買外包服務就能很快開發出來。

孫哲南表示,與“AI相面”不同的是,論文中的研究採集了大量樣本,並用計算機深度神經網絡模型學習了人臉特徵與性格之間的關聯映射函數。論文顯示,研究最初的樣本參與者達到25202名,照片總數達到了77346張,經過數據篩選程序,最終得以保留的數據集包含12447份有效問卷和31367張照片。這些參與者的年齡介於18歲至60歲之間,其中女性佔比59.4%,男性佔比40.6%。在此基礎上,研究團隊用神經網絡評估了人臉的128種特徵,比如嘴巴寬度嘴脣或眼睛高度,確保了實驗覆蓋的數據量級和多樣性。得到數據之後,研究人員將數據分爲兩組,一組用來訓練AI,一組用來測試神經網絡的準確性。實驗中的兩類數據,用於訓練的數據集佔比90%,用於驗證的數據集佔比10%。

在AI系統的設計上,研究人員開發了一種計算機視覺神經網絡(NNCV),來區分不同的面孔,並且記住面部圖像的特徵。同時,研究團隊還訓練了人格診斷神經網絡(NNPD),NNPD根據從NNCV分析出的信息,預測輸出五種人格特質,整個過程分別針對男性和女性面部識別進行。

進行情感計算需先建立與心理活動的關聯

通過上述研究我們不難發現,目前人臉識別已經有從“讀臉”到“讀心”的發展趨勢,那麼通過照片、視頻等識別人臉表情,人臉識別技術需要哪些發展?

孫哲南認爲,人工智能的“讀心”功能目前主要是通過情感計算實現。

早在1997年,MIT媒體實驗室就提出了情感計算的概念,情感計算旨在通過賦予計算機識別、理解和表達人的情感的能力,使得計算機具有更高的智能。在情感計算的研究中,情緒識別是最基礎、最重要的內容之一。而情緒識別主要通過面部表情、語音、文字、生理信號等模態的數據,來識別出人類的各種情緒。

“目前情感計算已有一些研究成果和進展,但是技術還不夠成熟。通過表情分析心理活動是情緒識別不可缺少的方式,但表情識別比人臉識別更加難,因爲心理活動的表現因人而異,很難統一建模全球所有人的喜怒哀樂與人臉數據之間的量化關係。首先給人臉圖像標註情感類別和強度就是很難的事情,‘一千個觀衆眼中有一千個哈姆雷特’;此外,情緒判定存在主觀性甚至摻雜地域文化風俗習慣等因素。”孫哲南說,因此從識別身份到識別表情,人臉識別技術需要更先進的計算模型建立人臉圖像、視頻與心理活動之間的關係。但目前機器人智商情商,達到高度和諧的人機共存仍然任重道遠

此外,孫哲南強調,如果通過面相自動判斷性格的技術到達成熟階段,這種技術將會在企業招聘、職業規劃、人機交互、廣告營銷等領域得到應用。但這種基於面相的性格識別會先入爲主地判定人物性格,進而帶來一些倫理問題,例如性格歧視與偏見等。(記者 馬愛平