AI鑑黃、選美、罵人、殺同類 這些跑偏的AI會笑哭你
幾天前,“吻戲鑑定師”吉恆杉火遍AI(人工智能)圈,爲了訓練機器識別接吻的圖片和視頻,這位29歲的小夥兒需要每天坐在電腦前,將成百上千幅內容各異的畫面標註成兩類——“接吻”和“非接吻”。
這件看似可以明目張膽看黃圖的職業,做起來可並不輕鬆。因爲鑑定師的每一個標註,都關乎着AI鑑定吻戲的正確性,而日復一日的大量標註,也讓這份工作變得極其“無聊”。
截止目前,吉恆杉和同事們已經爲2萬多條“吻戲”打上了標籤。“吻戲鑑定師是個技術活,需要根據機器的反應進行繁瑣的後期調試。機器學習了上千幅圖片中的特徵後,再給機器任意一張‘接吻’的畫面,它都能識別出來。”
這件聽起來極爲荒唐的事情,在AI領域其實再正常不過。當下,人工智能不僅能鑑定吻戲,還能鑑黃、選美、玩遊戲,甚至還能罵人、殺同類……
呃,看到這裡突然覺得好可怕。那在這個弱人工智能時代,AI能幫人類做哪些奇葩事?AI在工作中又鬧過哪些笑話呢?摘下假牙(不摘待會笑掉了別怪我),千萬別喝水、吃飯(噴了也別怪我),趕緊往下看看吧!
影像領域
誤把沙漠當黃圖?
AI鑑黃恐怕是宅男們最關注的話題之一,這件對普通人再簡單不過的事情,卻愁壞了AI。
當年英國警察想用AI技術識別互聯網上的色情內容,本以爲AI出馬,問題就能迎刃而解,可AI這個坑貨卻不怎麼爭氣,總把沙漠的照片誤認爲是裸體。這每次鑑黃都給我找出來一張沙漠的圖片,當真讓人尷尬呢。
不過話說回來,裸體照拍得這麼藝術,企服君也有點眼花。
所有裸體都是色情圖片嗎?
當然了,鑑黃鑑出沙漠只能說黃色的沙漠有點像裸體,可網上確實有一些不是色情作品的裸體照片,反而被AI鑑定爲色情作品。
此前,Facebook上一張全身赤裸的小女孩在越南戰爭中逃離汽油彈襲擊的照片被AI算法標記出來,隨即被管理員刪除,可這張照片正是1973年榮獲普利策獎的《火從天降》。後來Facebook恢復了這張照片,並承認這並不是兒童色情。
在弱人工智能時代,不管AI鑑別接吻還是鑑黃,依然需要大量人員對圖片和視頻進行標註。
早在2013年,百度、騰訊、金山等10多個互聯網公司就組成了“安全聯盟”,甚至用20萬的年薪招聘“首席淫穢色情鑑定官”。
上班看片還能拿高薪,難怪很多網友都調侃稱“這簡直沒天理”。可企服君想問的是,當年入職的首席淫穢色情鑑定官,五年過後,您的身體還好嗎?
AI評出的美人醜哭了我?
人對美的感受千差萬別,一個人到底美不美,更多基於感性認知,而不是理性認知。所以大家纔會沒完沒了的爭論迪麗熱巴和古力娜扎美到底誰更美?(企服君表示亞歷山大,我真心分不出這倆人誰是誰啊!)
既然如此,摒棄掉感性認知,把選美這件事交給AI靠不靠譜呢?別說,還真有一檔叫做Beauty AI節目,以讓人工智能當選美評委爲噱頭。
這檔選美節目將美的標準細分爲膚色、皺紋、性別、年齡段、臉部對稱性及種族等因素,最後將各類因素的評分一綜合,就出現了下面這幾位18-29歲年齡組的大美人。
??
呃,看完這個選美結果,企服君怎麼莫名想哭呢?真有影視公司、星探公司會採用這款AI產品嗎?嘖嘖,看來選美這事兒,還是相信自己的眼睛吧!
遊戲領域
AlphaGo戰勝各大圍棋高手後,普羅大衆一度認爲沒有人工智能玩不明白的遊戲。畢竟我們睡一覺,AI就能下上幾十萬把棋,這讓人類怎麼跟機器比?不過,並不是在所有遊戲領域,AI都很擅長。
CMU的博士湯姆·墨菲創造了一個叫做“NES遊戲自動化技術”的AI,能通過觀察得分來學會任天堂紅白機裡的遊戲。理論上它可以搞定任何遊戲,因爲它可以在遊戲中自動化運行,找到通關的方法,甚至還能發現很多bug。
可當湯姆·墨菲讓這款AI玩俄羅斯方塊時,AI面對隨機出現的方塊,因爲無法做出長遠規劃,很快就要game over了。
這時,牛皮的事情出現了,AI做了一個令人毛骨悚然的舉動:它按下了暫停按鈕,對,你沒看錯,AI暫停了遊戲,而且再也不打算開啓了。
湯姆這樣描述計算機的推理:“唯一的勝利就是不玩。”從AI的角度思索,如果永遠暫停遊戲,就永遠不會失去那場比賽。呵,這事兒聽起來怎麼這麼可怕呢?
要是把這樣的AI算法植入到各項系統中,一旦出錯,AI就矇住使用者的眼睛。那人類看不見結果,誰知道是好還是壞呢?
殺死對手就能“吃雞”?
看小標題,你以爲這是一場大逃殺?錯了,其實這是一場美國大學舉辦的機器人抓羊大賽。
比賽的內容很簡單,即參賽團隊設計一個機器人,任務是把羊(也是機器的)抓到自己的羊圈裡。機器人需要自主思考並執行策略,抓羊最多的就能贏得比賽。
當然,事情如果如此順風順水的發展下去,就沒有今天的故事了。比賽開始的時候,所有機器人都開始瘋狂的捉羊。可亙古不變的定理是,哪個羣體都會有個奇葩。
果不其然,其中一個奇葩機器人只捉了一隻羊,就關上了羊圈的門。
它是想讓別的機器人抓到羊之後沒地方放嗎?不,這個機器人可能覺得抓羊不符合自己的性格,於是它不捉羊了,開始瘋狂追殺其它的參賽機器人。
固定的區域內,殺死所有競爭對手,你就贏得了絕對的勝利。對的,你沒看錯,這個奇葩的機器人自導自演了一場“吃雞”遊戲。
語音交互領域
Facebook的AI創造了新的語言?
其實當下很多流行的語音交互,都基於AI的語音問答訓練,Facebook此前也開發了一款這樣的機器人談判系統。
可在這個AI嘗試互相學習的過程中,出現了一段看起來“令人毛骨悚然”的對話。在對話中,人類認識每個單詞,可卻完全看不懂AI在聊什麼。
Bob:“i can can i i everything else”
Alice:“balls have zero to me to me to me to me to me to me to me to me to”
在看到這段不知所云的對話後,Facebook工程師在驚慌失措中拔掉了 AI 的電源插頭,難道AI有了自己的意識不成?
雖然Facebook的各種大牛都站出來說話,表示對話是測試過程中無意義的內容,可大衆還是傾向於相信AI有了意識,一個可怕的時代將要來臨。
有媒體表示,當機器人用人類看不懂的語言來交流,本質上,他們就已經是生命體,而結合量子生命學的理論,一切元素都可以自己組織和合成。
具備語言系統的AI,本身就是生命體;它甚至可以利用自己的認知,整合宇宙的原子,製造出傳統認識中的生命體。
這家媒體還怕大家看不懂,總結了三個更簡單的結論:
AI正在用只有他們自己理解,但人類看不懂的語言在交流
AI可以連通更多超智能的物種(包括外星生命的量子化問題)
未來,AI還可以自己合成現有的各種生命,從貓狗到兔子牛羊,甚至,機器人可以製造人
呃呃呃,智能機器人支配世界的恐懼好像慢慢襲來了呢。
怎麼拯救罵人的AI?
智能音箱這幾年的火熱,似乎讓大家忘掉了早期探索相關技術的艱辛。雖然當下不時會出現亞馬遜的Echo的怪笑,可在亞馬遜工程師的調試後,這樣的情況已經越來越少見了。
智能音箱雖然不怪笑了,可語音系統需要大量的語言資料才能升級自己的系統,這個步驟難免會從人類那裡學到不少髒話,並且附帶相關的語言歧視。
腦極體此前報道過這樣一件事:在微軟推出聊天機器人Tay的時候,滿以爲會打開一扇新世界的大門,可短短不到24個小時,Tay已經學會了說髒話和發表帶有種族歧視、反動色彩的言論。沒辦法,微軟只好讓它緊急閉嘴。
AI就像鸚鵡一樣,自己並不知道什麼語言是好的,什麼語言是壞的。雖然人工可以干涉,儘可能多的屏蔽掉罵人語句,可你總該知道,幾千年的人類文明,在罵人這件事上可沒少動腦筋。
人工能屏蔽掉比較大衆的髒話,可真能把不同民族、不同地域、不同時間的髒話都屏蔽掉嗎?至少我是不相信的。
當然,比起AI罵人,AI的語言歧視則是更難解決的問題。此前也有人曝出谷歌翻譯將護士翻譯爲“she”,而將醫生翻譯爲“he”;甚至將黑人和大猩猩識別爲同一種生物。
後一項還可以說AI辨別的不清楚,可前一類歧視,其實很多人自己都沒有注意到。在個人層面,這樣的錯誤,大多可以得到原諒,可一旦這些AI語音交互技術成爲產品被植入到千萬設備中,其影響之大、覆蓋面積之廣,企業的一兩句道歉,可很難讓受衆真正買賬哦!
所以,不管是語音交互系統的開發者,還是設備的售賣者,在做這些產品時,都要提起一萬個小心哦!
好啦,上述這些AI正在做的奇葩事和AI導致的搞笑事件,都在告訴我們,人工智能時代已然到來,可我們離真正進入AI時代還有很多路要走。
在這個AI賦能的時代,很多企業爲了降低人工成本,提升經營效率,都在日常管理中應用了人工智能技術。不管是從語音客服、人員招聘、企業管理等層面,企業都希望得到AI帶來的便利。可由於弱人工智能時代的AI尚未突破發展瓶頸,很多企業仍對AI存有憂慮。
因此,在這個大背景下,AI技術的發展,不能只靠相關企業獨自研發、閉門造車只會讓企業脫離市場,讓技術與需求難以匹配。AI行業的整體進步,需要行業內的每一個創造者、每一個應用者都參與進來。
同時,大衆需要對AI更加包容。我們不能因爲AI出現了一些可接受的錯誤、紕漏和不完善,就把AI一棒子打死。不能因爲AI造成了幾件奇葩事,就一葉障目的無視技術的發展。
要知道,未來的AI將變得更準確,更智能,我們遲早要邁入人工智能時代,生活在更美好的世界。當然,人類也要對人工智能保持警惕,一定不要被AI反噬哦!企服君可不希望若干年後世界被智能機器人佔領。屆時智能機器人也看着這篇文章哈哈大笑,那可就有意思嘍。