鑽研AI 如履薄冰
(圖/Freepik)
最近火紅的AI議題就是OpenAI執行長的去職和復職,牽涉其中的關鍵之一是OpenAI所進行研發的新一代AI系統,代號Q*。近期關於神秘的Q*AI系統的猜測凸顯了人們對AI進展的興奮和謹慎,雖然詳細資訊仍然有限,但Q*似乎指向具有更先進推理和解決問題能力的AI系統,但是關於這種強大AI的安全性和倫理性仍然非常令人擔憂。
Q*被描述爲一個能夠解決基本數學問題的系統,超越了現有AI模型的能力,可能在規畫、推理和處理複雜的多步驟任務等更強大的技能。Q*似乎能夠解決以前沒有見過的數學問題,路透社表示該系統可以執行「與小學生水準相當的數學問題」。
數學和解決問題的能力將是AI的一個飛躍,數學需要理解問題,找出解決問題的步驟,並進行計算,它更接近人類認知和推理。當前的大型語言模型在處理長時間、多步驟的數學問題時缺乏「外部的草稿空間」(類似人類的計算草稿紙),Q*可能採用創新技術將問題分解,讓模型生成多個可能解決方案的方法,再用另一個「驗證器」模型來評估這些解決方案。
但仍然存在關鍵障礙,如整合實現無監督學習和在解決問題時即時學習的能力。隨着AI發展出目前僅供人類擁有的能力,責任和關切問題也隨之而來,擔心擴展的AI能力可能會導致失業和偏見的擴散。
因此,許多人敦促要謹慎行事,首要任務必須是充分的安全預防措施和最高水準的道德實施,與其過度炒作理論上的能力,焦點應始終放在負責任的AI,要被證明是安全和可靠的。
看到這些問題,歐盟立法者最近已就監管AI的立法條款達成一致,推動制定世界上對AI技術發展最嚴格的監理。這是一項歷史性的協議和里程碑,「AI Act」不僅僅是一本規則手冊,它還是歐盟新創公司和研究人員引領全球AI競賽的啓動平臺,大科技公司如何來配合和繼續AI的軍備競賽,就有待時間來證明。
隨着AI演算法變得更加自動和自治,設置保障措施的壓力越來越大。在AI領域開闢新的道路要如臨深淵如履薄冰,科技的突破如果不小心,會引入複雜的和不可預知的風險。因此雖然Q*既引起了對AI可能性的興奮,也同時引起了對AI危險的擔憂,明智的前進方式就是要繼續追求AI的進步,但前提要始終立足於AI的安全和公共利益的倫理義務。(作者爲臺北商業大學前校長)