數據要素遇上人工智能,安全防線面臨三大挑戰

21世紀經濟報道記者肖瀟 北京報道

“AI大模型是底層的基礎設施,我們需要爲它做一整套縱深的安全體系。終端、網絡、雲上、應用……各個層面都要做好防禦才行。這也是爲什麼今天的數據安全特別難做。” 6月5日,奇安信集團(上交所:688561)副總裁、首席數據安全科學家劉前偉在“第四屆中國數據要素50人論壇”上表示。

作爲網絡安全公司員工和數據安全專家,劉前偉發現在大模型井噴後,網絡安全碰到了三個前所未有的難題:

首先,生成式AI打破了“攻防平衡”的網絡安全格局。劉前偉解釋,尤其是代碼大模型的普及,讓以往低水平的黑客如今也能用AI生成高級攻擊的腳本,打破了一直以來的網絡安全防線。一個軍事概念“飽和攻擊”或許能形容眼下的安全攻擊局勢,即高密度、持續性的黑客攻擊,這反過來對作爲“防守方”的安全專業人員提出了更高要求。

第二,人工智能加劇了數據非法獲取、惡意濫用的風險。“數據既是黑客竊取的目標,也可能是攻擊的毒藥。”劉前偉說,數據一旦被投毒會產生更嚴重的安全問題,比如網絡安全類廠商的數據標註一旦被篡改,攻擊樣本被篡改爲正常樣本,“解毒”就成了“投毒”。

除此之外,敏感數據的泄露風波不斷。一個典型案例是去年4月,三星集團被曝光多起數據泄露事件。根據韓媒報道,原因是三星允許半導體部門的工程師使用ChatGPT修復源代碼問題,起碼有三名員工直接輸入了新程序的源代碼本體、與硬件相關的內部會議記錄等數據。這些敏感信息以提問的方式輸入給ChatGPT,進入其訓練數據庫,從而泄露給了美國公司以及其他用戶。

儘管尚沒有發生濫用事件,但泄露本身已經令人不安。美國數據安全公司Cyberhaven曾統計160萬員工使用AI的情況,發現3.1%的打工人曾直接將公司內部數據餵給ChatGPT分析。其中,一週內,有10萬名員工上傳了199份機密文件、173份客戶數據和159次源代碼。

棘手之處尤其在於,由於數據一旦投餵給AI大模型就難以被“撤回”,即使是三星這樣的大型企業,也難有辦法要求OpenAI直接刪除公司的敏感數據。

第三,人工智能擴大了數據暴露面,數據要素的流通風險激增。劉前偉指出,一方面,隨着大量企業業務走向數字化,企業數據在終端、應用、雲上、數據中心之間流轉,鏈路非常複雜,訪問者的身份往往難以辨認和管理;

另一方面,過去的網絡詐騙簡單好防,如今的不法分子可以利用深度僞造技術模仿出聲紋、人臉。“能夠披着合法的外衣做壞事,很難及時捕捉到安全風險。”劉前偉無奈表示。

那麼,如何才能完善人工智能衝擊下的網絡安全體系?劉前偉認爲,需要在最開始就將安全能力內嵌到整個AI業務系統中,建立全方位的安全防禦體系;他還提到,可以用AI技術來提高數據要素平臺本身的安全性,尤其要升級對API接口的保護,這是去年90%數據安全事件的肇因;最後,可以分離調試環境與運行環境,先在調試環境中用少量樣本訓練大模型,再放入全量環境中,在不影響安全性的同時釋放數據價值。