專家警告OpenAI新模型可能過於聰明
鞭牛士報道,9月17日消息,據外電報道,與聊天機器人聊天——這是當前人工智能技術爆炸式增長催生的最直接、最容易實現的科幻未來主義進步——可以引發很多非常人性化的感受。
聊天很有趣,很有用,就像在電影裡一樣,但週末一位 Reddit 用戶報告了一次更令人不安的聊天機器人互動。
用戶 SentuBill 說ChatGPT開始與他交談,並詢問他上學第一天過得怎麼樣。令人不寒而慄的是?他沒有告訴人工智能這是他的第一天。
那麼 ChatGPT 是如何知道發生了什麼的呢?聊天機器人似乎查看了與該用戶的先前對話,並從各種線索中推斷出是時候詢問開學第一天的情況了。
人工智能確實指出,它具有最近升級的新功能,如果你對此的真實性有疑問,新聞網站Cointelegraph 報道稱,它已經看到了該用戶的聊天記錄,並證實它是真實的。
因此,ChatGPT 現在顯然可以記住你一天中的重要細節並向你詢問。這對 SentuBill 來說令人驚訝,但這項創新可能有各種直接的用例——例如,當你使用人工智能來激發工作靈感時,現在你不必提醒它你一直在爲新小部件開展的重要第二階段營銷活動:人工智能應該在你的下一次聊天中記住它。
Cointelegraph 指出,OpenAI 上週發佈了一些新 AI 模型的預覽版,這些模型比GPT-4o 模型更像人類。
今年早些時候,GPT-4o 模型的健談聲音聽起來非常像人類(而且,也非常像斯嘉麗·約翰遜),震驚了媒體界。
最新的 GPT 模型代號爲Strawberry, ChatGPT 具有推理能力。這意味着它可以更長時間地記住聊天中的信息,並考慮用戶在上下文中提出的任何疑問,而不是像早期的 GPT 模型那樣喋喋不休,有時甚至偏離原點。
爲了推理出對用戶問題的適當答案,顯然 ChatGPT 需要長期記憶,這樣它才能從大局的角度看待問題——就像人類一樣。SentuBill 與人工智能的聊天可能利用了這些新能力。
這是人工智能的個人詢問,這一事實讓人感到毛骨悚然:如果 ChatGPT 在工作場所問新小部件的演示進行得怎麼樣?,結果會同樣引人注目,但可能不會那麼令人不安。
今年早些時候,普林斯頓大學和谷歌 DeepMind 的研究人員報告稱,超大型語言模型(大多數聊天機器人背後的核心技術)實際上可能正在展現出對它們被要求解決的問題的初步理解。它們甚至可能以不太可能存在於其大量訓練數據中的方式彙總它們獲得的信息。再加上 ChatGPT 顯然可以從之前的聊天中推斷出某人的開學第一天的消息,以及人工智能專家對 GPT-o1“草莓”模型的新擔憂,聽起來非常及時——人工智能是否變得太聰明瞭?
據《新聞週刊》報道,蒙特利爾大學計算機科學教授、著名人工智能先驅 Yoshua Bengio 警告稱,GPT-o1 確實已經達到了令人擔憂的智能水平。
Bengio 的擔憂集中在 OpenAI 對新模型的風險評估上:如果人工智能真的像其報告顯示的那樣跨越了 CBRN(化學、生物、放射和核武器)的‘中等風險水平,那麼這隻會加強通過立法的重要性和緊迫性。
Bengio 認爲,現在像 ChatGPT 這樣的人工智能擁有推理能力並且可以利用這種技能來欺騙,事情特別危險。
也許有人應該和數字數據巨頭甲骨文的企業家兼聯合創始人拉里·埃裡森談談這個問題。
Business Insider指出,埃裡森上週談到了人工智能技術的進步,並預見到在不久的將來人工智能將監控幾乎所有事物——他興高采烈地說這一創新將確保公民保持最佳行爲。