共話AI向善 2024世界人工智能大會翻開全球治理新篇章
以“以共商促共享 以善治促善智”爲主題的2024世界人工智能大會暨人工智能全球治理高級別會議於7月4日—6日在上海召開。本屆大會期間,來自世界各地的專家學者圍繞人工智能前沿技術的發展與治理,探討全球治理面臨的挑戰和應對措施,探索構建人工智能治理的全球框架。本屆大會也充當了人工智能全球治理的高級別“議事廳”,向世界展示“中國智慧”“上海方案”。
上海人工智能實驗室主任、銜遠科技創始人周伯文在大會期間表示,“從算法研究、人才密集度、商業驅動力和算力等方面來看,我們對人工智能安全的投入遠遠落後於對人工智能性能的投入。現在,世界上只有1%的資源投入在安全考量上。”
基於此,周伯文提出一個技術主張:探索人工智能45度平衡律。對於人工智能系統的安全和能力可否兼得,他認爲,要沿着可信AGI(通用人工智能)的“因果之梯”拾級而上,進入泛對齊、可干預、能反思三個階段,探索二者系統性平衡之路。
“目前,人工智能安全和性能技術發展主要停留在第一階段,部分在嘗試第二階段。但要真正實現人工智能的安全與性能平衡,我們必須完善第二階段並勇於攀登第三階段。”周伯文說,最終,像安全可控的核聚變技術爲全人類帶來清潔、豐富的能源一樣,人類可以通過深入理解人工智能的內在機理和因果過程,從而安全有效地開發和使用這項革命性技術。
在清華大學蘇世民書院院長、清華大學人工智能國際治理研究院院長薛瀾看來,人工智能的治理與發展已走到關鍵的“十字路口”,尤其是生成式人工智能所帶來的挑戰是前所未有的。第一,人工智能技術的發展速度遠遠快於監管制度的制定速度,首當其衝的便是發展與治理的平衡問題。第二,人工智能引發的問題前所未有,這使人工智能監管變得空前複雜,沒有任何一個監管機構能夠單獨管理好人工智能牽涉的各個方面。第三,隨着國際格局變化,國際社會不太可能形成一個單一的全球性機構,來監管人工智能發展的方方面面。因此,加強國與國之間的人工智能治理溝通與合作非常必要。
人工智能可能帶來一些顯而易見的風險,薛瀾表示。第一,技術內在問題,包括所謂幻覺、自主發展的可能、對人類社會的威脅等;第二,基於技術開發帶來的風險,包括數據安全問題、算法歧視、能源環境等;第三,技術應用帶來的調整,包括誤用、濫用、對社會就業的影響等。
解決這些問題,薛瀾認爲,要把發展和安全作爲“一體兩翼”。國際社會不僅要重視安全問題,更要關注人工智能鴻溝、數智鴻溝等。各國應通過多途徑建立國際交流及防控體系;同時,希望聯合國等國際組織能起到全面協調的作用。
中國科學院自動化研究所研究員,聯合國人工高層顧問機構專家曾毅也談到了人類對人工智能潛在風險的忽視。他說,“數據顯示,2023年人工智能所帶來的風險是2022年的10倍以上,這意味着,生成式人工智能的發展,把這項風險帶向了社會各個領域,並且在各國之間反覆出現。大家更多關注人工智能發展的機遇,對可能產生的隱患卻沒有更好地學習。”
他介紹,2020年起,聯合國教科文組織召集了一批來自各國的人工智能倫理專家,撰寫了全球人工智能倫理的建議書,體現了各國對人工智能倫理的共識。“但僅形成倫理共識是不夠的,如何落地纔是關鍵。”
曾毅強調,如果出現比人類更聰明的智能存在,人類在這一過程中需要進行反思和思維演化,要從以人類爲中心轉化爲以生態爲中心。“人工智能像一面鏡子,讓我們看到自身的不足,同時也反過來加速人類發展。”
“控制好人工智能,但又不能破壞它。”圖靈獎得主、中國科學院院士、清華大學交叉信息研究院院長姚期智表示,風險體現在三個方面:一是網絡風險延伸和擴大。二是沒有意識到的社會風險,三是生存或者存在的風險。“一方面我們把人工智能控制好,畢竟這是我們設計出來的;另外一方面,也不希望它被我們給破壞了,這樣權衡是非常困難的。正如圖靈所說,這是無法預測的,預測不了機器有了足夠算力之後會做什麼。”
中國工程院院士高文指出,人工智能的安全風險可以從模型、算法硬件、自主意識不可控三個方面考慮。開展國際合作研究和人才培養是提高人工智能安全水平的關鍵。