專家傳真-防AI危及人類安全與權利 應速立法規範
圖/freepik
前一陣子,微軟的雲端系統在安全防護更新時,造成數百萬臺機器的當機。許多美國公司的飛機停飛,地勤人員只能手寫登機證。這問題提醒了我們,當越來越依賴雲端技術服務幫我們減少人力時,事實上就是把我們的命運全放進同一個籃子裡。一旦這籃子出了問題,整個企業就將停擺。
近年來大家都極力地推展將公司的系統送到雲端上,如亞馬遜的AWS、微軟的Azure,這樣可以減少許多公司裡的資訊人力需求,同時增加許多彈性。雲端運算就是隨需應變,快速彈性的可量測服務,用多少付多少。可等到即將有需求時,再向雲端要求大量資源,而不用隨時在家裡擺着大量的伺服器,來等待未來需求,如此便能減少資源閒置的浪費。雲端服務同時還有一個好處,它可以隨時的做軟體的安全更新,避免駭客利用軟體尚未更新的漏洞來做零日攻擊,讓雲端服務商爲你的網路與軟體安全把關。但很諷刺的是,這次事件卻是雲端服務商自己在安全更新時出了問題,讓所有的人都不能工作。
■所有服務都架在公有云上,一家出事衆人倒楣
一般把雲端服務分成公有云,私有云和混合雲三種。後來大家比較推薦的就是混合雲架構。它是把比較沒有機密性的資料放在公有云上,然後在自家中建立私有云保存機密資料。這次出問題的公司,應該就是把所有的服務都架在公有云上。所以一旦雲端服務商出了問題,那公司的所有運作就停擺了。
於是大家這時就發現,私有云不單可以保護公司的機密資料,同時還可以當作公有云發生問題時的備援系統來用,不會讓公司的業務完全停擺。這個案例也提示我們在推廣無現金社會的理想時的一個警示,當完全不用現金時,災難時停電或是斷訊,就無法買東西,整個經濟活動都將停擺。推廣純電車也有同樣的問題,一旦長期停電,則將無車可用。
現在生成式人工智慧(AI)當道,大家就希望AI可以幫我們解決更多的問題,替我們做決定。但AI最大的問題卻是不可解釋性,不可控制性。你不知道它做決策的邏輯是什麼,內容是怎生出來的,只能看到它提出的答案。所以如果你要你的命運交到它手上,由它指導你的方向,幫你決定人生,那就是下了一個風險極大的賭注。
■將AI當成工具代理人,人類還是主導者
所以現在的新趨勢,是用由谷歌大腦創辦人吳恩達教授近年所積極推動,把AI成一個工具代理人,將它提出的答案嵌入工作流程的系統中,再由工作流程的邏輯來判斷決定下一步要做什麼。人們可以控制這工作流程的邏輯,於是整個AI系統所做的決策,就提高了可解釋性,以供監督。
除了AI聊天機器人等的大幅進步之外,人形機器人也到了實用的地步。現在餐廳中已經有很多送餐機器人到處跑。日後工廠中,將出現可以自行到處活動的人形機器人在做工。這不像現有汽車工廠的固定式機器手臂,只會有一個有限的活動範圍。運用人形機器人將會出現的危險就是,它們力大無窮,而且行動範圍不受物理性拘束。因此萬一失控,這樣對人類造成許多傷害。所以一旦發生硬體錯誤,電路損毀或是軟體損壞,人形機器人可能亂衝亂跑,揮舞手臂,甚或攻擊人類。就如同常見的車輛暴衝的車禍一樣。人形機器人的暴衝,將是未來常見的社會安全事件。有人說人形機器人是會走路的ChatGPT。但全靠雲端運算或邊緣運算控制,機器人會不會被駭客綁架?以後自駕車、AI忠誠僚機也有相同問題。
■明定紅線與罰則,才能防堵AI觸法行爲
另一個方面,整個AI的訓練過程,就像用影印機或錄影機把別人的作品存入AI的模型裡。所以就牽涉到所使用的語料,圖片和影片的版權問題。AI服務公司要拿這個來賺錢,如同要公開播放與展示別人的作品,需先付錢搞定這一切版權所有者,否則就等着被告。這將是天價費用,只有大公司付得起。要解決的問題,還有AI所產生的偏見與毒性。如性別歧視,種族歧視,仇恨言論,色情內容等等。提供服務的AI服務商,有責任要對這一切做過濾把關的動作。
然而猶如洗錢防治工作一般,道德勸說與呼籲是沒有用的,只有明確規範提供服務廠商的責任,訂定違反法規後的重罰,才能夠提供廠商一個明確的指引,纔會知道哪邊是紅線不可以去觸犯。
這一切,都要在整個服務還沒有大量散播前就要完成,否則等資源投下去後再修改,那將工程浩大,也會產生許多損失。趁着一切還沒很成熟的時候,大家還是多花點時間,趕快把這些保障所有人安全與權利的AI的基本法律規範制定下來吧。