OpenAI 明年推人工智能代理,對您影響幾何
OpenAI 預計於明年推出“代理”。這些是獨立的人工智能模型,能夠在無需人類輸入的情況下執行一系列任務,並且可能很快在 ChatGPT 中得以應用。
在舊金山舉行的首次 OpenAI DevDay 活動期間,首席執行官山姆·奧特曼(Sam Altman)表示“2025 年代理將發揮作用”,該公司通過讓一個 語音助手 自行打電話並訂購草莓,展示了代理潛在能力的早期示例。
該公司表示,通用人工智能(AGI)有五個階段,我們目前處於第二階段,即人工智能在做出響應之前能夠依據一個想法進行推理。代理是第三階段,意味着 人工智能足夠聰慧,能夠依據一個想法進行推理 ,並且作爲規劃其響應的一部分,能夠自行行動並獨立執行操作。
奧特曼此前曾宣稱,o1 系列模型的強大功能意味着它們可以開始幫助構建代理級模型,我們應該很快就能看到其中的第一批。更大的挑戰以及可能造成延遲的因素,將是確保它們 符合人類價值觀 並且不會“失控”,執行對人類無益的操作。
構建有用且功能強大的代理是每個人工智能實驗室都致力的方向。例如,這將使得人工智能不僅能寫一本書,還能自己搞定如何自行出版,包括在亞馬遜註冊賬戶,在 Kindle Direct 上進行分享。
在通往通用人工智能(AGI)的道路上,智能體是必不可少的一步,因爲它需要能夠執行其認爲達成目標所必需的任務。奧特曼在開發日期間說道:“如果我們能打造出一個在人工智能研究方面比 OpenAI 更出色的人工智能系統,那感覺就像是一個真正的里程碑。”
達到那個階段需要在之前幾代人工智能的基礎上不斷建設。奧特曼表示,o1 模型將使智能體真正得以實現,當人們開始使用智能體時,“這將會是一件大事”,並補充說:“人們會讓智能體去做一件原本需要他們花費一個月才能完成的事情,而它僅需一個小時。”
他預測,人們可能會讓一個智能體執行特定任務,讓另一個智能體承擔不同職責,直到他們擴展到 10 個或 100 個智能體,能夠接管日常職責的各個方面。在觀察 o1 思考想法並給出建議時,我們已經看到了這可能如何發展的一些要素。
每當 OpenAI 發佈一個新模型,他們都會對其進行嚴格的安全測試,依據一系列用於判定其能否安全發佈的標準來進行評級。這在過去造成了延誤,並需要在模型上設置防護欄以防止某些行爲。
一個明顯的例子是 GPT-4o 模型,它能夠原生地生成圖像、創作音樂甚至模仿聲音,但所有這些功能都被防護欄阻止了。你知道它可以做到,因爲有時防護欄會失效。
對於代理來說,護欄斷裂將會是一個更大的問題,因爲他們可能有權訪問您的銀行賬戶,能夠上網執行任務,甚至能在 Fiver 上僱傭他人爲其完成任務,還能使用語音模式下達指令。
在開發日的示例裡,我們看到有一個語音機器人致電賣家(由研究人員扮演),訂購 400 顆巧克力包裹的草莓,給出具體地址,並表示將用現金支付。它宣稱自己是人工智能助手,但有時您很難分辨它是人工智能。
在接受英國《金融時報》採訪時,OpenAI 的首席產品官凱文·韋爾(Kevin Weil)表示:“我們希望能夠以與他人互動的所有方式與人工智能進行互動,”並補充道,代理系統將於明年成爲主流,從而使這一目標成爲可能。
韋爾稱,針對智能代理系統的一項保障措施是要求其始終聲明自身爲人工智能,不過,如果您曾聽聞 Advanced Voice 的口技表演或者目睹 GPT-4o 生成完美的矢量圖形,您就會知道這些限制並不總是完美的。
就我個人而言,我期待着智能代理的到來。我喜歡編程,智能代理能讓我更迅速地達成目標,接管一些枯燥的測試階段。它還能讓我最終處理掉約 25 萬封未讀郵件。倘若天網是我爲實現收件箱清零所必須付出的代價——那就讓終結者來吧。