好未來AI技術助力未成年人網絡保護 半年審覈信息46億條
6月1日,新修訂的《中華人民共和國未成年人保護法》正式實施。本次修訂的一大亮點是新增了“網絡保護”專章,提出網絡服務提供者發現用戶發佈、傳播含有危害未成年人身心健康內容的信息的,應當立即停止傳輸相關信息,採取刪除、屏蔽、斷開鏈接等處置措施。但面對互聯網上的海量信息,依靠傳統的內容審覈手段已經難以跟上形勢。作爲一家以“愛和科技讓教育更美好”爲使命的科技教育公司,近年來好未來積極探索利用AI技術開展網絡內容審覈,全面加強未成年人網絡保護。
AI審覈爲未成年人織起網絡信息安全網
4月27日,由好未來旗下學而思網校舉辦的萌娃“小講師”口述風采展圓滿收官。鏡頭前,來自全國各地的小朋友們,將學到的知識歸納總結後,以“講師”的身份講出來;小朋友們還就自己感興趣的知識點和話題侃侃而談,發表自己的觀點。而屏幕的另一邊,學而思網校的老師們則做出了專業點評。
學而思網校萌娃小講師活動宣傳海報
在此前的活動海選中,所有參與活動的用戶需要提交自己錄好的演說視頻,並在平臺上發佈。視頻提交前,頁面會彈出15秒的內容健康承諾,提醒用戶“不提交對未成年人不良的內容、不提交違反法律和法規的內容、不提交違背社會公序良俗的內容、不提交和本次活動無關的內容、不提交監護人沒有檢查的內容。”
視頻提交後,會立即上傳至好未來的內容審覈系統,好未來AI會立即發揮它強大的NLP(自然語言處理)、CV(計算機視覺)、ASR(語音識別)等技術能力,在1分鐘內完成對視頻的一次審覈判斷,攔截違規內容,並根據審覈規則要求將內容推送至後臺專業的人工審覈團隊進行復核。
除了類似的活動內容審覈外,好未來所有在線內容場景中,未成年人能看到的信息都裝上了這樣一道“安全網”,覆蓋範圍包括用戶提交的所有對外可見的內容,如用戶頭像、暱稱、評論、視頻、彈幕等,所有色情、暴恐、辱罵、政治等各類不合規信息將被審覈系統“層層過濾”。
據統計,僅在2021年上半年,好未來旗下各業務經過AI內容審覈系統的數據就達到46億條,發現並清除的違規內容總量達到了47萬條。
龐大的審覈數據背後是好未來長期積累的AI能力在發揮作用。
2019年的世界人工智能大會上,科技部宣佈好未來成爲智慧教育國家新一代人工智能開放創新平臺承建單位。AI審覈能力是好未來近年重點探索的方向之一。
AI技術的一個核心特點是“不斷學習”。AI程序就像一個不吃不喝拼命學習的“學霸”,只有“學習資料”夠多,才能不斷變得更強。大名鼎鼎的圍棋AI程序AlphaGo正是學習了3000萬盤圍棋比賽的數據之後,成功打敗了人類圍棋世界冠軍李世石,從此其下棋能力再無人類選手可以企及。
AI內容審覈也是如此,只有數量足夠且場景匹配的數據才能訓練出一流的AI內容審覈能力。
雖然市場上早已經有了比較成熟的內容審覈方案,但對於教育領域並不能直接適用。和其它普通社交、娛樂平臺不同,教育平臺面向的用戶主體是未成年人,審覈的標準要更加嚴格,甚至到了嚴苛的地步。比如有些動漫畫面看起來挺可愛,但內容卻可能涉及兒童邪典。這樣的信息在其它平臺可能被直接放過,在教育平臺則要更加小心,對於AI來說學習難度也更大。
難得的是,好未來在數據方面有得天獨厚的優勢。通過使用大量教育場景數據,不斷優化訓練模型,機審準確率穩定保持在95%以上。
好未來AI內容審覈系統後臺操作界面
機審保證了海量信息的快速審覈。好未來重視內容的文化性和多變性,深知清朗的未成年人網絡環境需要堅持不懈的努力,有害信息一旦漏過,就可能對孩子們造成傷害。因此,好未來AI的內容審覈系統中還有一支強大的人工審覈隊伍。
對於AI機審中發現的異常信息,他們會及時介入,在1-3小時內完成人工審覈,只有審覈通過的信息纔會被用戶看到。對於被AI機審通過的數據,人工審覈還制定了審覈策略進行抽查,一方面確保沒有漏放的違規內容,另一方面根據複查結果迭代策略、提升審覈團隊質量。
任何審覈機制都無法真正做到100%的成功率,而科學的兜底機制就顯得尤爲重要。爲此,好未來還建立起UGC內容舉報、反饋機制,被舉報的內容作爲第一優先級進行人工審覈,自舉報觸達1小時內完成調查和處置,築好未成年人保護的一道防火牆。
投入如此多人力物力在AI內容審覈上,背後體現的是好未來對於未成年人保護的底線思維。
2020年7月,在中國網絡社會組織聯合會、中央電化教育館、共青團中央權益部的倡導下,好未來旗下學而思網校與阿里巴巴、騰訊、百度等國內32家互聯網企業共同簽署了《共建未成年人“清朗”網絡空間承諾書》,爲未成年人提供一個綠色、健康、文明、和諧的在線教育和網絡生活環境。
學而思網校參與2021未成年人網絡保護研討會
今年6月1日,“E路護航·賦能成長”2021未成年人網絡保護研討會在浙江寧波召開。作爲本次會議的協辦單位,學而思網校在“未成年人互聯網使用與保護——行業責任及社會參與”主題論壇上,從學習理念、素質教育和產品保護三方面,闡述了自身如何爲學生營造安全、積極、正能量的網絡學習環境。此外,好未來基於人工智能技術的“課堂教學質量監測系統”及“人工智能啓蒙兒童成長解決方案”還入選了《人工智能爲兒童——面向兒童羣體的人工智能應用調研報告》。
如今,未成年人保護已經成爲了好未來各條業務的底線要求。“我們服務的對象主要是未成年人,他們的心智尚未成熟,缺乏正確辨別互聯網信息是非利弊的能力,很容易受到不良信息的侵害。作爲教育企業,我們更加有責任從自身做起,運用各類技術不斷推進未成年人保護,爲未成年人創造更加安全、健康的成長環境。”好未來相關負責人說。