AI恐滅絕人類!350名專家最新連署:比照核戰正視風險

350位AI領域專家和業界人士聯署,呼籲重視人工智慧發展的危險性。(圖/Shutterstock)

美國非營利組織「人工智慧安全中心」(Center fot AI Safety,CAIS) 30 日發佈一份連署公開信,只有短短一句話「降低人工智慧(AI)滅絕人類的風險,應該與其他社會規模的重大風險,例如流行病和核戰爭一樣,成爲全球優先事項」。包括Chat GPT母公司OpenAI的執行長山姆阿特曼、微軟、Google等科技公司執行長,以及AI相關專家學者等350多人都共同簽署。

「人工智慧安全中心」的公開信非常簡單明瞭,就是強調人工智慧有滅絕人類的風險,應該成爲全球的優先事項,用對待覈武戰爭相同的等級來正視這個風險。共同簽署公開信的除了阿特曼以外,還有研究人工智慧的先驅「AI教父」辛頓(Geoffrey Hinton)、Google人工智慧研究部門Deepmind的CEO、微軟首席科學官以及中國、美國等多國名牌大學的教授和科學家,共350多人。

「人工智慧安全中心」網站上也列舉出AI科技帶來的幾大風險,包括人工智慧掌握到研發藥物的工具,進而製造出生化武器;AI生成的海量虛假訊息,被國家、政黨、組織利用於說服他人,AI自行產生極具說服力但不正確的論述,所引發的嚴重後果;人類最終失去自我管理能力,必須完全倚賴機器等等。

今年5月中旬,美國參議院司法委員會隱私科技與法律立法小組召開「AI監管:人工智慧的規則」聽證會,OpenAI的執行長山姆阿特曼做爲與會證人出席。會中,阿特曼也點出他對人工智慧科技發展的憂心,他強調,若AI技術跑偏將會產生嚴重問題,希望能對此直言不諱也願意與政府合作,他也提出3 點建議,「成立一個新的政府機構,負責授權大型AI模型,並撤銷不符合政府標準的公司許可證」、「爲AI模型建立一套安全標準,評估其危險性」、「需要獨立的專家,獨立審查模型的各種指標表現」。