AI機會與挑戰並行 學者呼籲須做好安全準則

大陸民衆正在瞭解AI數位人形象產品。(摘自新華社)

人工智慧(AI)的蓬勃發展爲人類創造無窮機會的同時,也帶來未知風險。大陸與國外學者表示,AI技術的發展消除人與機器的語言鴻溝,使得兩者相互理解成爲可能,但也不忘提醒,通過掌握語言,AI可以形成一種異種文化,甚至可能將人類安置在矩陣般的幻境世界。人類需要做好AI模型的安全準則,確保對人類有益。

澎湃新聞報導,復旦大學電腦科學技術學院教授、上海市資料科學重點實驗室主任肖仰華受訪時提及,曾經機器和人類之間也存在着這樣的情況,至少機器一直以來都無法準確理解人類的自然語言,所以實際上人類一直遷就機器,將自己的意圖轉換成各種各樣的形式語言。

肖仰華直言,但現在看來,這些所有的形式語言都不必要了,基本上可以被自然語言代替。某種程度上而言,可以認爲機器「理解」了人類的自然語言,同時也理解各種專業的形式化語言,可以把人類各種自然語言所表達的意圖準確轉換成相應的形式語言,比如程式設計的語言和晶片設計的語言。

大語言模型消除了語言鴻溝,機器理解人類不再存在障礙。以色列歷史學家哈拉瑞(Yuval Noah Harari)認爲,今年4月在Frontiers論壇上演講時表示,人工智慧正在以超過人類平均水準的能力掌握語言。而通過掌握語言,人工智慧正在掌握入侵人類文明系統的鑰匙。

哈拉瑞甚至預言,人工智慧與印刷機、收音機以及歷史上的每一項發明都有根本不同,因爲它可以創造全新的想法,可以創造新的文化。人類從未真正直接接觸到現實,而總是通過文化的棱鏡來體驗現實。通過掌握語言,人工智慧可以形成一種異種文化,擁有將人類包裹在矩陣般的幻境世界所需的一切。

加州大學柏克萊分校羅素(Stuart Russell) 教授受訪時稱,大語言模型本質上是一個「黑箱」,人類很難確切瞭解觸發人工智慧「胡言亂語」(即通常所說的幻覺)的機制是什麼,這種未知帶來當下的擔憂。「我們完全不知道這個系統是如何工作的。如果它確實有內部目標,我們也不知道是什麼導致了這些目標被啓動。」

開發ChatGPT的人工智慧機構OpenAI也頻頻發出警告。OpenAI聯合創始人阿特曼(Sam Altman)6月在2023北京智源大會上提醒,想像一下,未來的AGI(通用人工智慧)系統或許具有10萬行二進位碼,人類監督員不太可能發現這樣的模型是否在做一些邪惡的事情。”

復旦大學電腦科學技術學院教授、MOSS大模型負責人邱錫鵬認爲,通用人工智慧會實現更高端的醫療、更優質的教育、更大的科學進展,這將爲社會上每個人帶來更美好的生活。但同時,人類還需要做好人工智慧模型的安全準則,確保對人類有益。