生成式AI恐引發深假危機 KPMG教戰三招自保

所謂「深假技術」,指使用甲的臉孔,搭配乙的身材與動作,用丙的嘴型說出的變造的內容,在現代AI技術下,是不難達成的任務,但可能造成嚴重的資安危機。

舉例來說,駭客用ChatGPT針對不同企業,產生數萬封釣魚郵件後,再運用僞造聲紋假冒財務長致電財務人員進行匯款;或駭客用生成式AI的強大分析與歸納功能,找出藏於企業內部未曾發現的弱點,藉此進行網路進階攻擊或機密竊取。

KPMG安侯企業管理(股)公司執行副總經理林大馗預測,如果生成式AI連動既有的深假技術威脅,可能導致風險加乘,未來AI所創造的假文章、假程式、假郵件、假影片將大量涌現且難以識別,進而影響到生成式AI的正確性。

他也據此對企資安提出三大自保之道,首先是除了標配防火牆與防毒軟體,可能還需透過「人工加工人智慧」的打假工具及內容確認工程師等協作,纔能有效降低AI所帶來的資安風險。

第二是在新興的風險治理工具尚未成熟前,一般企業可以建立「智慧型主動式」的防護能量,例如在公開影片中添加專屬的雜湊值或安全憑證,以確保來源的真實性並防止駭客暗中蒐集與惡意竄改;或擴大運用「MFA多因子認證」讓消費者透過兩種以上的認證機制,才能取得授權。

第三則是爲了降低駭客攻擊的的風險及提升使用者隱私安全性,企業可以參考零信任(Zero Trust)資訊架構,避免以一次驗證後即可長時間與完全取用所有服務的傳統做法,改採依據不同的服務風險等級、搭配多次且不同方式的驗證,降低單一識別方法失效的災損程度,確保適當與匹配的風險控管。