院士籲發展安全可控的第三代人工智能

數據隱私、算法偏見、技術濫用等安全問題給社會公共治理與產業智能化轉型帶來嚴峻挑戰中國科學院院士清華大學人工智能研究院院長張鈸專家呼籲發展安全可控的第三代人工智能。

近日在“AI安全與產業治理”論壇上,張鈸說,“第三代人工智能”發展路徑融合第一代的知識驅動和第二代的數據驅動的人工智能,利用知識、數據、算法和算力4個要素,建立新的可解釋和魯棒的AI理論和方法,從而發展安全、可信、可靠和可擴展的AI技術。

與會者表示,第三代人工智能的提出恰逢其時,將助力中國實現人工智能在安全可信領域突破

“現階段人工智能產業正經歷從高速增長向高質量發展的轉變,產業期待的提升讓金融、醫療等更復雜的高價值場景的應用需求不斷增加,安全性的重視程度也不斷提升,但由於傳統技術範式存在天然的算法漏洞和缺陷,難以支撐人工智能的長久高質量發展。”瑞萊智慧CEO田天在論壇上說。

田天表示,作爲第三代人工智能的踐行者引領者,需加快發展第三代人工智能,發展“安全、可控”核心能力。他解釋說,“安全”是指打造數據安全與算法安全兩大核心能力,解決數據強依賴帶來的隱私泄漏與數據投毒隱患,同時提升算法的魯棒性可靠性;“可控”既指應用層面合規可控,更指核心技術的自主可控,以自主可控爲根基,通過理論創新、技術突破形成核心競爭力。安全可控是發展第三代人工智能的核心基準,也是加快人工智能高質量發展的有力支撐。

會上,中國信息通信研究院安全所信息安全研究部主任魏薇倫理規範法律法規、標準體系、技術手段、人才培養等角度出發,提出多項數據安全治理建議,以期爲實現人工智能行業數據安全合規實踐提供支撐。

與會專家強調,發展安全可控的人工智能是一項系統性工作,需要行業標準、法律規範等治理工作與技術發展等多個維度共同推進,打造與之配套的“基礎設施”。

清華大學人工智能治理研究院副院長樑正對此提出,首先需進行分領域、分級治理,並確定治理優先級,目前聚焦於利用個人信息進行的自動化決策系統,未來聚焦於涉及人身安全的高風險領域。同時在算法治理中識別和區分規則問題和技術問題,採取針對性的措施,以及堅持安全、公平、透明和隱私等基本原則,實現負責任的人工智能。

業界看來,技術基礎設施的打造仍將發揮起基礎性的作用。對此,RealAI聯合清華大學等發佈了基於深度學習模型的對抗攻防基準平臺

清華大學計算機系教授、RealAI首席科學家朱軍表示,此基準可以更加公平、全面地衡量不同算法的效果,提供方便使用的魯棒性測試工具,全面衡量AI模型的安全性,用戶通過提交模型的方式可以獲取安全性的得分。

“數據對於AI發展非常重要,通過對於不同攻擊和防禦算法統一全面的對比,相信這次的平臺可以爲機器學習模型的安全與穩定性驗證提供更全面的支持,併爲進一步設計開發新的安全、強壯的學習算法提供有力的技術背書。”伊利諾伊大學計算機科學系教授李博說。(張素