擔心AI造假怎麼辦?首個AI實時鑑僞工具來了

隨着AGI(通用人工智能)等話題日益火熱,AI安全的重要性也在快速提升。這背後,是全球範圍內的企業、機構與個人對AI造成的技術惡用、濫用問題的重視與警惕。

6月21日,瑞萊智慧(下稱“RealAI”)正式發佈了全球首個可實時檢測AI合成內容的工具RealBelieve。

這是一款針對個人用戶的產品,可以提供主動實時檢測防護。例如它可以鑑別視頻通話中人臉的真僞,或是在用戶瀏覽網頁時提示內容是否由AI合成。目前,該產品已啓動內測招募。

最近一段時間,AI技術在填補衆多行業效率需求空缺的同時,也滋生了大量安全隱患,比如利用AI技術換臉、合成聲音等的詐騙行爲頻發。

2024年年初,香港警方向社會公佈了一起詐騙案件。在一場使用Deepfake技術“AI換臉”和AI音頻合成的“高管會議”中,一家英國跨國企業香港分公司的職員受到視頻內容的欺騙,向犯罪嫌疑人指定的本地賬戶陸續匯出2億港幣,此事在五日後才被揭穿並曝光。

面對這種新型高科技技術犯罪,大型機構尚且缺乏有效工具及時辨別,遑論普通個體。

RealAI此前曾開展過AI合成檢測技術研究和產品研發,推出了生成式人工智能內容檢測平臺DeepReal、人臉AI安全防火牆RealGuard等相關產品。

此次推出的RealBelieve主要提升了兩方面能力,一是多模態檢測能力,用戶可以上傳文本、圖片、視頻和音頻等多種內容進行監測;二是把滯後的被動檢測轉變爲主動檢測,比如可以通過瀏覽器插件的形式提示用戶所瀏覽網頁中疑似AI合成的內容,並在視頻通話過程中鑑別對方人臉是否存在AI合成風險。

RealAI聯合創始人、算法科學家蕭子豪對界面新聞表示,該產品背後的檢測模型是基於貝葉斯深度學習技術開發,團隊打造了一系列多模態AIGC檢測技術體系,根據各類AI合成線索進行不確定性推理決策。

在多模態AIGC(人工智能生成內容)技術進化的過程中,生成技術與檢測技術其實在同步發展。在GPT、LIama、DALL-E-3等模型和算法的不斷升級下,AIGC技術得到了促進,與此同時,也有Detect GPT、De-Fake、Detect-Vocoder等相應的AI檢測技術陸續出現。這是AI安全領域一種必要的對抗。

不過,RealAI CEO田天指出,在整個AI安全領域,對於AIGC內容的監控檢測只是作爲基礎功能的一部分。除此之外,在AI的數據準備、模型訓練以及模型應用等各個環節,都有其各自的一系列安全問題。

總體來說,AI安全問題可以分爲三個層次。第一層是AI技術本身要安全可信;第二層是AI技術的正義性,防止被濫用;第三層是面向未來超級智能的AI安全。

OpenAI前首席科學家Ilya Sutskever曾表示,當前的AI安全問題已經到了非常迫切的程度,如果不採取相應措施,很可能就錯過時機,而在這之後基本不存在亡羊補牢的可能性。

事實上,Ilya Sutskever在OpenAI發起的“超級對齊”項目正是針對這一擔憂。從OpenAI離職後,他創立了一家名爲“安全超級智能”(SSI-Safe Superintelligence)的人工智能公司,計劃開發出比人類更聰明但不危險的人工智能技術。

按照Ilya Sutskever之前接受採訪的說法,未來超級智能看待人類的狀態,很有可能就是現在人類看待動物的狀態。而在人類幾百萬年與自然界交互的歷程中,從未出現過一個智能水平更低的物種能夠控制、約束智能水平更高物種的情形。

因此,商業公司在矇眼狂奔的過程中,如果缺乏對AI安全治理的足夠重視和投入,很可能在沒有邊界的情況下造成一系列潛在危害。

“隨着超級智能越來越接近,在AI安全領域,我們要確保將來的超級智能體能夠跟人類和諧相處。”田天說,“簡單來說就是要讓它更像人類,具備人類的價值觀。”

相較於全球範圍內的多個國家與企業對AI安全的重視與投入程度,田天表示,目前國內在這片產業上的整體投入仍然相對落後,但阿里、騰訊、百度等大廠以及智譜AI等創業公司,都在加大投入力度。