生成式AI,恐引發深假資安危機…KPMG:企業應以三招自保

所謂生成式AI是一種幾乎可與所有軟體進行互動的全新技術,最終目的是模仿人類的創意行爲,能根據人類已創造出的東西生成新的內容。最近熱門的ChatGPT便是其中一種應用。

KPMG提醒,隨着生成式AI發展,將加重「深假技術」的威脅,例如駭客用ChatGPT針對不同企業,產生數萬封釣魚郵件後,再運用僞造聲紋假冒財務長致電財務人員進行匯款;或駭客用生成式AI的強大分析與歸納功能,找出企業內部弱點,藉此進行網路進階攻擊或竊取機密。

KPMG安侯企業管理(股)公司執行副總經理林大馗表示,生成式AI連動深假技術,將使企業資安風險加乘,對此企業透過三方面來對資案進行自保。

首先是除了標配防火牆與防毒軟體,可能還需透過「人工加工人智慧」的打假工具及內容確認工程師一起作業,纔能有效降低AI帶來的資安風險。

第二是在新興的風險治理工具尚未成熟前,一般企業可以建立「智慧型主動式」的防護能量,林大馗指出,例如在公開影片中添加專屬的雜湊值或安全憑證,以確保來源的真實性並防止駭客暗中蒐集與惡意竄改。或是擴大運用「MFA多因子認證」,讓消費者透過兩種以上的認證機制,才能取得授權。

林大馗表示,第三個方法,降低駭客攻擊的的風險及提升使用者隱私安全性,企業可參考零信任(Zero Trust)資訊架構,避免一次驗證後即可長時間與完全取用所有服務的傳統做法。例如可改採依據不同服務風險等級、搭配多次且不同方式驗證,降低單一識別方法失效的災損程度。