鄧亞峰:壞人會對人工智能加以利用 安全問題刻不容緩

“隨着人工智能和大數據技術的應用落地,特別是在自動駕駛、人臉識別醫療診斷等安全敏感型的場景應用越來越多,AI和數據安全問題也受到廣泛關注。”近日,360人工智能研究院院長鄧亞峰受邀參加首屆清華大學人工智能合作與治理國際論壇,並就“數據與人工智能安全”議題發表演講。

鄧亞峰指出,由於人工智能是快速出現的新應用,AI應用生產部署的各個環節均暴露出一系列安全風險。比如在人工智能框架方面深度學習框架及依賴組件可能帶有漏洞,存在容易被忽視的安全隱患;在人工智能應用方面,存在模型文件竊取、數據流降維攻擊等安全風險;在人工智能算法方面,由於神經網絡模型的黑盒屬性(不可解釋性),容易導致一系列以模型誤判爲目標的惡意攻擊。

這就容易造成嚴重的數據泄露和安全風險。“我們在實踐中發現了大量以隱私竊取爲目標的攻擊,如模型反轉攻擊、模型萃取攻擊、成員推斷攻擊等。”鄧亞峰表示。

他認爲,雖然從技術角度看,人工智能體很長一段時間都無法擁有真正的自我意識,但是,一些壞人會對人工智能加以利用,僞裝爲壞的AI對人類安全造成威脅。因此,保護人工智能和數據安全刻不容緩。

鄧亞峰表示,首先,需要相關國家和組織聯合起來,針對隱私保護和人工智能倫理問題等新情況,制定更加明晰有效的法律法規,保證在應用人工智能爲人類造福的同時,也要保護好數據隱私,避免相關社會倫理問題的困擾;

其次,需要構建統一的人工智能硬件軟件、算法的安全評估標準準則,並開發相關係統,用於檢測和確定人工智能相關係統的整體安全,特別是開源框架和軟件方面,更需要統一行動;

再次,需要用更加開放協同方式進行科學研究技術交流,推動人工智能技術快速並安全的落地。