世界互聯網大會烏鎮峰會推出全球人工智能治理中國方案
近日,在2024年世界互聯網大會烏鎮峰會上,上海社會科學院、武漢大學、北京郵電大學等15家機構聯合發佈了《全球人工智能治理研究報告》(以下簡稱《報告》)。該《報告》分析了全球人工智能治理現狀,梳理了全球人工智能治理的重要議題,並提出了構建完善全球人工智能治理體系的目標宗旨、原則共識、行動路徑,爲全球人工智能治理提供中國智慧和方案。
2022年人工智能大模型ChatGPT一經問世,即刻風靡全球,引發人工智能投資開發熱潮,推動人工智能的性能迅速增強,人工智能應用迅速普及,併成爲不可阻擋的潮流。就拿我國來說,目前已完成備案並上線爲公衆提供服務的生成式人工智能服務大模型近200個,註冊用戶超過了6億,應用範圍涵蓋了工業、農業、商業、金融、教育、醫療等廣泛領域,推動了各行各業的智能化轉型和升級。與此同時,人工智能也帶來衆多可預見和不可預見的風險和挑戰,危及個體、社會、國家等不同層面的安全。《報告》強調,全球人工智能治理攸關全人類命運,是世界各國面臨的共同課題,推進全球人工智能治理是一個長期的過程。
《報告》梳理了全球人工智能治理的十大重要議題,具體包括:國家主權原則和人工智能發展、社會變革和可持續發展、技術創新和產業發展、人機情感和生命倫理、內容安全風險、模型算法安全風險、數據安全和隱私保護、產品責任和風險、知識產權保護、智能鴻溝和國際協作。透過這些重要議題,有三個重要的治理手段值得大家特別關注。
一是技術手段。人工智能技術是一把“雙刃劍”,對其的治理也離不開技術手段,甚至可以說,技術是人工智能治理的基礎。《報告》指出,人工智能技術的發展與國家主權問題密切相關,人工智能技術的戰略性發展可用於維護國家主權、安全、發展利益,國家主權也面臨着來自技術自主性的挑戰;人工智能技術在賦能社會經濟發展的同時,也對原有社會秩序帶來了衝擊;濫用人工智能技術生成錯誤、虛假信息等加劇了內容安全風險。對此,《報告》強調,要加強信息交流和技術合作,完善應對人工智能安全風險的技術,不斷提升人工智能技術的安全性、可靠性、可控性、公平性。唯有如此,才能發揮人工智能技術“善”的一面,確保其以人爲本、智能向善,造福人類。
二是倫理規範。人工智能比以往任何技術都更深入人類社會生產關係,催生了人機混合社會,並在快速重塑人與人的關係。人工智能倫理的核心問題就是要確保人工智能不損害人類的生存條件和環境,不危害人類生命健康,保障人類的切身利益,促進人類社會的可持續發展。《報告》警告,人工智能技術可能引發根本性的倫理問題,危及人類自身生存和發展。爲此,《報告》強調全球人工智能治理應當始終堅持“以人爲本”的理念,以尊重人類權益爲前提,以促進人類可持續發展爲動力,以提高人類共同福祉爲目標。唯有如此,才能將人工智能體培養成一個“好人”,確保智能向善。這也與《全球人工智能治理倡議》提出的“堅持倫理先行”的理念一脈相承。
三是法律規制。法律是社會規則的底線,法律通過明確企業開發人工智能的規則,用戶使用人工智能的規則,政府監管人工智能的規則,防止人工智能被誤用、濫用、惡用,預防人工智能體成爲“壞人”。《報告》指出的人工智能數據安全和隱私保護問題、內容安全風險、產品責任風險、知識產權保護問題等,均離不開法律的規制。畢竟算法正義是有侷限的——依賴於代碼表達的正義無法映射出完整的社會公平正義。我國已出臺了《生成式人工智能服務管理暫行辦法》等法律文件,前瞻性地積極化解人工智能安全風險。
可見,技術、倫理和法律在人工智能治理中各有側重,相輔相成,有必要構建技術-倫理-法律三位一體的全球人工智能綜合治理體系。我們在推動人工智能技術發展的同時,應不斷強化倫理規則和法律規範,確保人工智能技術的發展與人類價值觀和倫理原則保持一致。通過國際合作和多方參與,我們可以共同構建一個開放、公正、有效的人工智能治理機制,促進人工智能技術造福全人類,推動構建人類命運共同體。
(作者:北京郵電大學互聯網治理與法律研究中心主任 謝永江)
來源:中國日報網