避免引發AI 軍備競賽 美學者籲:美中應研商AI監管協議

圖爲今年7月在瑞士日內瓦舉行的「人工智慧造福人類全球峰會」。(摘自新華社)

加州大學柏克萊分校講師Peter Bittner日前在「中美聚焦」網站上撰文呼籲,美中借鑑全球武器條約的歷史先例,包括標誌性的《禁止核子擴散條約》(NPT),就人工智慧(AI)監管達成雙邊協議,是十分重要的。

文章稱,人工智慧系統驅動汽車,爲各行各業提供動力,並且越來越多地影響着軍事決策。然而,與所有強大的技術一樣,它也帶來了重大風險─如果不加以控制,可能破壞雙邊和全球關係的穩定。

Peter Bittner直言,人工智慧可以爲軍事行動提供巨大的戰略和戰術優勢。然而,另一方面卻可能引發一場新的人工智慧軍備競賽,有可能引發衝突、滋生不信任並破壞全球穩定。

文章稱,這種情況令人毛骨悚然地想起冷戰期間世界面臨的核難題。隨着核技術的發展,出現了一個悖論─雖然具有發電等和平應用方面的潛力,但它也化身爲相互保證毀滅(MAD)的幽靈。正是在這種背景下,1968年《不擴散核武器條約》應運而生,它旨在防止核武器擴散、促進裁軍、促進和平利用核能。

Peter Bittner表明,人工智慧的興起也造成了軍民兩用的困境。人工智慧具有顯著提高生產力、解決複雜問題,並創造巨大經濟和社會效益的潛力。然而,如果不受監管,它有可能對美中關係和全球層面的穩定構成重大威脅,特別是在軍事領域。

文章警告,人工智慧驅動的軍備競賽可能帶來的場景是,由機器驅動的快速決策繞過人類的深思熟慮和判斷,從而無意中加劇衝突。這些自動化決策可能無法完全考慮地緣政治的細微差別和長期影響。

此外,在追求優勢的過程中,各國可能越過道德界限,創造出無需人類干預即可行動的人工智慧武器,進一步擴大意外對抗的風險。缺乏標準化的人工智慧規範,還可能導致各國沉迷於秘密的人工智慧活動,從而加劇相互猜疑,並增加因爲誤解意圖而採取先發制人行動的機率。

文章呼籲,美中就人工智慧監管達成雙邊協議,可能有助於應對上述威脅。該協議應涵蓋限制自主武器的開發和部署、提高人工智慧研究和開發的透明度,以及促進共同利用人工智慧應對氣候變化和疾病爆發等共同挑戰等。