「AI變臉」詐術再進化 金門警教妙招找出影像破綻

「深僞」的技術應用能結合AI仿真人學習,加上影像合成,恐將淪爲詐騙工具,提醒民衆「眼見不爲憑」,小心上當。(圖/警方提供)

詐騙集團招數不斷進步,金門縣警察局察覺近期很常見的AI人工智慧技術,出現一種「深僞(Deepfake)」的技術應用,能結合AI仿真人學習,加上影像合成,能以非常逼真的方式,來達到「換臉」或是「變聲」等效果,透過視訊誘使民衆上當。警方提醒,如果與熟人視訊察覺有異,或與生活中未見過的人或者自稱檢警的公務人員視訊,可要求對方轉頭、變換姿勢、在臉前揮手,藉由影像破綻分辨對方是否使用深僞AI技術,以免遭騙。

警方指出,早期「深僞技術」主要用於假訊息散佈,或是誹謗,以及侵犯個人隱私等犯罪行爲,例如先前YouTuber小玉換臉事件,或是模仿名人進行冒名宣傳。然而,隨着這項技術的普及,其應用範圍逐漸擴展到娛樂、新聞、社交媒體,甚至進一步被詐騙集團學習應用。

金門縣警局特別針對「深僞技術」進行研析,並列舉深僞結合詐騙的三大手法,包括:

1.電話詐騙(猜猜我是誰):歹徒利用模仿特定人物聲音的功能,冒充親朋好友或其他知名人士的聲音,取信被害人後,以詐騙金錢和個人資料。

2.視訊詐騙:「深僞技術」可用於合成逼真的影片、語音,或結合視訊功能,冒充企業高層向下屬發送虛假指示,例如要求轉移資金或提供機密信息。

3.恐嚇詐騙:詐騙集團可能會將個人肖像移花接木,用以合成不雅照片,在寄送給被害當事人,藉此恐嚇勒索。

金門縣警局長盧廷彰呼籲社會大衆,不能再以「眼見爲憑」看待網路所見,「深僞技術」結合詐騙手法,個人的聲音和影像遭到盜用後,民衆更難區分真僞,面對科技進步所帶來的犯罪威脅時,保持警惕和懷疑的心態,檢查來源的可信度,化被動爲主動,確保信息的真實可靠,纔不會落入詐騙集團陷阱。