致力推動可信任AI 數位部邀國際AI廠商交流

數位部今舉行例行記者會。(數位部提供)

人工智慧(AI)近期蓬勃發展,數位發展部今表示,持續建立兼顧科技創新及風險治理的可信任AI發展環境,推動多項AI政策與工作,包括成立AI評測中心、發佈AI評測指引、成爲國際非政府組織「集體智慧計劃」合作伙伴等。今年更進一步舉辦「運用AI促進資訊完整性審議式民主活動」,並邀請國際重要AI廠商進行交流,Meta、Google、Microsoft、OpenAI等與會廠商皆認同AI須具備可信任、準確性及安全等重要特性。數位部未來將持續與各界對話,致力推動可信任AI,協力創造社會所需的各項AI應用服務。

數位部表示,爲確保AI應用與全民利益保持一致,去年5月數位部正式成爲國際非政府組織「集體智慧計劃」合作伙伴,參與對齊大會專案,協助我國在全球公衆領域上,凝聚民衆對於人工智慧需求與風險之共識,共同處理「人工智慧對齊問題」;數位部致力推動可信任AI及數位信任環境,爲使AI的應用是可靠的,且爲避免生成式AI所生成的錯誤、不實及僞造訊息及圖片流竄,參考國際政策、標準與產業需求,成立AI評測中心、發佈AI評測指引,目前也針對大型語言模型(Large Language Model,LLM)進行評測,逐步成立驗證機構和實驗室,推動AI評測與驗證,建立國際交流合作。

爲從個人、利害關係社羣及國家層面探討AI的發展對社會的影響,數位部去(112)年辦理2場「AI未來民主化」審議式工作坊,邀請相關利害關係人討論如何因應生成式AI發展。從參與者討論及回饋中,可瞭解從資料蒐集、處理到數據運用,都需要照顧社會對AI倫理的不同期望。

爲進一步迴應各界對正確應用AI於公共治理的期許,數位部與國立陽明交通大學科技與社會研究所、財團法人工業技術研究院以及史丹佛大學審議民主中心等單位合作,於今年3月23日舉辦「運用AI促進資訊完整性審議式民主活動」,透過「111」政府專用短碼簡訊平臺,隨機發送簡訊邀請公民參與。共邀集450位專家學者、公民、社羣和數位從業者,線上討論運用AI來辨識和分析資訊的完整性等相關議題。活動引起廣大回響,可見民衆對於AI運用於推動資訊完整性具有高度期待。

數位部並在4月17日邀集重要的AI國際廠商,就強化平臺的分析及辨別機制、及將語言模型(LLM)提送AI評測中心等議題作討論。與會廠商包含Meta、Google、Microsoft、OpenAI,皆認同AI須具備可信任、準確性及安全等重要特性,並指出開發語言模型過程中,皆有其團隊負責對轄屬模型進行持續性測試與訓練調整,以符合可信賴AI系統的期待;對於其開發中的語言模型,提供給AI產品與系統評測中心(AIEC)進行評測皆持正向態度,Meta與OpenAI並於會中初步表示同意。

此外,對於生成式AI內容進行分析及辨別方面,國際廠商皆在會中提出已建立或即將導入的相關作法,包括SynthID技術(用於AI生成圖片中建立浮水印,或偵測AI生成圖片中的浮水印,以方便辨識AI生成的圖片)等AI生成內容偵測技術、溯源標註及簽章、用戶檢舉機制,以及提醒用戶注意AI生成內容等作法。

藉由本次活動蒐集與彙整民衆及AI國際廠商的意見,未來數位部將持續敦促網路平臺業者推動資訊辨別與分析機制,而使用者於網路平臺所刊登或推播之內容,若含有使用深度僞造技術或人工智慧生成之個人影像,應明確說明或標註,以確保資訊完整性。

數位部指出,面對AI技術帶來的資訊完整性挑戰,需要平臺、政府和民衆的共同努力,藉由建立透明的監管機制,並加強公衆對AI生成內容的辨識能力,以促進資訊真實性與完整性;民主審議亦將強化社會韌性,未來數位部也將持續建立兼顧科技創新及風險治理的可信任AI發展環境,包括人才優化及留才攬才、重視AI倫理法制、推動資料治理及流通,建構以人爲本的健全數位生態系。