Google新研究計劃 讓AI更有包容力、不歧視他人?

實習記者黃肇祥臺北報導

你也曾被 Siri 的迴應氣到哭笑不得嗎?Siri 的幽默是需要靠人類教導的,但其實也有不少人工智慧被教壞的前例,近期 Google 推出一項計劃,就是爲了讓 AI 更具有包容力,減少歧視人類的可能。

▲人工智慧是現今科技發展趨勢,期盼透過機器學習輔助人類的生活。(圖/視覺中國 CFP)

這項計劃由資訊視覺化的專家 Fernanda Viégas 與 Martin Wattenberg 帶領,代號爲 PAIR(People + AI Research),試圖站在人類的角度,重新思考人與 AI 的互動方式,且重要的是,如何確保計劃能受惠於每一個人。計劃分成三個研究方向,包含如何讓工程師更瞭解 AI 的學習機制、各領域專業人士如何透過 AI 完成工作,最後則是希望讓 AI 更具有包容性

▲微軟人工智慧「Tay」學壞亂講話上線 24 小時遭下架(圖/取自 Twitter/Tay Tweets)

去年三月,微軟爲研究人類的對話形式,推出一款名爲「Tay」的智慧聊天機器人,除了會說笑話,特別的是給它看圖片,Tay 能夠辨識進而給出有趣的評論,且在每一次的談話過程中,都會不斷改善自己的回話內容,然而有網友發現 Tay的個性都取決於問話方法,因此網友開始進行「調教」,最後竟將 Tay 訓練成種族歧視的偏激分子

Tay 並非人工智慧被教壞的首例惠普電腦臉部辨識系統,就曾傳出對於非裔族羣特別難以辨認,又或者在其他 AI 系統中,醫生總是被預設男性護士總是女性。這些問題都源自於 AI 學習的過程當中人們灌輸錯誤的資訊,進而導致連 AI 也開始產生偏見。也因此 PAIR 計劃公開兩款開發工具「Facets Overview」與「Facets Dive」,讓有志投入 AI 研究的專家,可以更輕易檢查數據是否有偏差

▲Google近年來積極研發人工智慧,希望能有所突破。(圖/路透社

Google 認爲關鍵在於設計 AI 的思維,不將它視爲一種技術,而是可以設計的材料試圖用全新的想法打造 AI。當然,這樣的研究與想法已經有不少學者、專家提出,但能看見 Google 這樣的大公司願意投入研究,對於科技發展鐵定不是壞事吧?