人工智能的困境

引言

人工智能(AI)的快速進步和發展引發了對其雙重用途應用和安全風險的猜測。從自主武器系統(autonomous weapons systems ,AWS)到面部識別技術,再到決策算法,每一個新興的人工智能應用都帶來了或好或壞的結果。人工智能技術的雙重特性,不僅給各國的個人實體帶來巨大的安全風險:涉及政府、工業、組織和學術界(NGIOA),而且也給人類的未來帶來了巨大的風險。

現實情況是,任何新的人工智能創新都可能被用於有益或有害的目的:任何可能提供重要經濟應用的單一算法,也可能導致空前的大規模毀滅性武器生產,而這是難以捉摸的。其結果是,人們對基於人工智能自動化的擔憂正在加劇。

隨着機器學習、計算能力、無邊界投資數據可用性的進步,人工智能在廣闊領域有着潛在的應用價值,這一事實使其所涉及的安全風險成倍增加。此外,由於人工智能的整合對人來說是無法直接預知的,所以對任何事物的認知能力都從根本上改變了安全格局。人工智能的自動化和智能帶來了希望,也帶來了毀滅的可能性。

計算能力的大衆化

計算機技術的發展使技術發展、知識、信息和智能民主化。數據分析和處理技術的快速發展,將網絡、電子、量子和自主武器與核、生物和納米等技術結合於武器製造,這能夠對人類造成災難性的傷害。

聯網的計算機、網絡和網絡空間已經成爲整個NGIOA所有數字過程中不可或缺的一部分。由於計算機代碼和聯網計算機已經將網絡空間與地理空間和太空連接起來,現在幾乎一切都被聯網並可控。

由於人工智能有可能被整合到網絡空間、地理空間和太空(CGS)的幾乎每一種產品和服務中並使其智能化,這種不斷演變的認知能力從根本上改變了人類的安全環境。目前,技術、計算能力、編程語言、計算機代碼、加密、信息、大數據、算法、投資等,它們都有軍民雙重用途。

當每個人都可以訪問數字數據,擁有必要的機器學習技術和計算能力就能爲己創建人工智能時,複雜的安全挑戰隨即產生管理則變得困難重重。這不僅意味着增長中的潛在大規模殺傷性武器數量,攻擊面範圍的擴大也不容忽略。人工智能的雙重使用威脅所帶來的安全風險正變得越來越可怕。這就引出了一個重要的問題:人類的生存、安全和可持續性是否應該留給個人的智慧,誰能或不知道人工智能的潛在雙重用途?也許現在是開發人工智能框架時候了。

數據的大衆化

隨着網絡空間的數據成爲有爭議的公有物,大數據的大衆化帶來了一個全新的世界秩序。這個新的世界秩序給我們帶來了一個新的現實——任何地方的任何人都可以訪問數字數據,並將其用於人類的善或惡。今天,任何個人或實體,只要有意願,知道如何獲取大數據和數據科學能力,就可以利用它來實現他們想要實現的任何智能、自動化、監視和偵察,無論他們具備何種教育背景、背景、社會地位或意圖

雖然大數據的大衆化帶來了普遍的可訪問性,並使跨NGIOA的個人和實體獲得了授權,但它也給我們帶來了許多重要的安全風險。任何有或沒有受過正規訓練的人,都有可能無意中甚至有意地造成社區種族、宗教、國家和人類的混亂、災難以及存在的風險。

既然數據是構建大多數人工智能系統所必需的,那麼數據的大衆化是否會不受約束,而不承擔任何責任和責任呢?

人工智能

人工智能、機器人技術、無人機等領域的最新發展,對人類的益處有着巨大的潛力,但同樣的進步也帶來了巨大的風險:未經檢查的情報、監視、偵察,以及帶有偏見或致命的算法,沒有人爲此做好了相應的準備。

複雜安全風險產生於:這些帶有偏見和致命因素的算法是混合的,因爲參與開發或部署人工智能的決策者通常不會關注諸如“安全”之類的基本問題。因此,建立一種可持續的“人工智能安全”文化,不僅需要讓人工智能研究人員、投資者、用戶、監管者和決策者意識到人工智能開發的雙重用途(不管算法的性質如何),而且還教育那些參與其中的人。

正如今天的各國所看到的:

這就提出了一個根本性的問題:任何人、任何來自不同國家的個人或實體,如何能夠訪問必要的數字數據、探索爲任何目的和議程創造人工智能的基礎科學,而不承擔任何責任、監督和後果?

這種人工智能的發展需要在必要的時候進行管理和預防。

今天的人工智能發展和前景在許多方面都帶來了不確定性。因爲人工智能是一種軟件,它不僅建立在軍隊使用的武器系統上,而且在NGIOA的每一個智能應用程序中都有,每個人工智能應用的潛力都有雙重用途,這是一個不容忽視的現實。

安全困境

在人類歷史的大部分時間裡,安全的概念和方法主要圍繞着使用武力和地理空間的領土完整。由於安全的定義和意義在人工智能世界中受到了根本性的挑戰和改變,傳統的安全是指在地理空間內或跨越地理邊界對各自國家的侵犯,現在這種概念已經過時了,需要對其進行評估和更新。

全新的人工智能世界的出現,或多或少有點像一個陌生的領域,在這個領域裡,幾乎沒有人知道,而且大多是未知的。這引發了恐懼、不確定性、競爭和軍備競賽,並帶領我們走向一個沒有邊界的新戰場,這可能也可能不涉及人類,這也可能很難被理解和控制。

不斷髮展的人工智能威脅以及安全挑戰的複雜性跨越了空間、意識形態和政治,這就要求各國的所有利益攸關方進行建設性合作。集體的頭腦風暴是必要的,對威脅的事物進行客觀的評估,以及確保其安全。在認識到這一現實的情況下,風險集團(Risk Group)發起了對雙重使用技術困境(Dual Use Technology Dilemma)的討論。

雖然關於人工智能的結構、角色和雙重用途的爭論將在未來幾年繼續,但任何試圖重新定義人工智能安全的嘗試都需要從識別、理解、合併和擴展人工智能安全威脅的定義和性質開始。儘管本文的重點是人工智能,但許多其他技術需要對其雙重使用潛力進行評估。現在是開始討論新興技術的雙重用途的時候了。

(選自:forbes 作者:Jayshree pandya  編譯:本站智能 參與:nariiy)