熱評 | 給人工智能貼標籤,讓技術風險的警報隨時可以拉響

瀏覽社交媒體時,你是否刷到過某些標題吸引眼球而正文言之無物的"泡水文"?你又是否刷到過那些長相英俊或甜美但似乎科技感十足的帥哥美女?你是否懷疑過,你刷到的是人工智能生成的文字、圖片或視頻?

今天,國家互聯網信息辦公室發佈《人工智能生成合成內容標識辦法(徵求意見稿)》,其中指出,人工智能生成合成內容標識包括顯式標識和隱式標識。服務提供者提供的生成合成服務屬於《互聯網信息服務深度合成管理規定》第十七條第一款情形的,應當對生成合成內容添加顯式標識,即可被用戶明顯感知到的標識。

《徵求意見稿》明確,用戶向提供網絡信息內容傳播平臺服務的服務提供者上傳生成合成內容時,應當主動聲明並使用平臺提供的標識功能進行標識。任何組織和個人不得惡意刪除、篡改、僞造、隱匿生成合成內容標識。

出臺相關辦法,其目的正在於消除用戶對信息內容背後生成合成技術的疑慮,釐清互聯網信息傳播平臺上"真"與"僞"的界限,避免海量信息的真假混雜對公衆認知、審美造成的干擾。

事實上,社交媒體平臺上已經出現了生成合成技術濫用的苗頭。比如在體育領域,許多自媒體文章已經有別於傳統意義上的"標題黨":在一個極具爭議的標題下,正文既沒有信息增量,也沒有鮮明的觀點和邏輯,全文充斥着"車軲轆話",讓讀者根本摸不着頭腦。更有甚者將文字生成技術用於"預測"賽事比分、"撰寫"尚未開始的比賽的賽後報告,或是捏造球員的轉會信息、職業背景。這些文章看似真實可信,實則一派胡言。

只是因爲體育領域的關注度、影響力相對有限,所以讀者對這些文章大多一笑置之。但是假如這種趨勢擴散到了其他領域,尤其是社會民生領域,假如別有用心者利用文字生成技術造謠傳謠,那麼將會對正常的新聞傳播秩序產生顛覆性的影響,甚至會對社會秩序造成衝擊。

此外,韓國近期爆出的"深度僞造色情內容"事件也在提醒着我們,假如不對生成合成技術的應用加以節制管控,一旦其成爲犯罪的工具,那麼許多人的名譽、尊嚴將受到嚴重威脅。而且,利用深度僞造技術實施的犯罪一旦得手,其影響範圍、持續時間、惡劣程度都將因爲極高的逼真度而大大提升。

所以,甄別生成信息、區分真僞信息、攔截有害信息迫在眉睫。但要求平臺提供標識、內容製作者使用標識,僅僅是這項工作的第一步。更重要的,是督促各大信息平臺升級技術手段,加強對生成合成內容的檢測識別,對利用技術生成的不實信息、有害信息加大攔截處置力度,對刻意隱瞞技術使用並造成不良後果的內容製作者加大懲處力度。

生成合成技術這柄雙刃劍,已經將其同樣銳利的兩面展現在世人眼前。我們在爲工作效率提升而感到欣喜的同時,有必要對技術的無序應用引起足夠的警惕。爲技術貼上標籤,實際上是在給人類原創信息與人工合成信息之間加設一層過濾網,爲人工智能技術對人類受衆認知的逆向影響安裝一臺隨時觸發的警報器。

作者:

文:孫欣祺 編輯:孫欣祺 責任編輯:孔韜

轉載此文請註明出處。