鍾睒睒喊話張一鳴!“謠言”之殤,平臺該負什麼責任?

算法正在裹挾每一個人。

近日,農夫山泉創始人鍾睒睒在江西贛州參觀考察當地臍橙產業園時,談及今年上半年遭遇的網絡暴力、做綠瓶水背後的故事以及對網絡直播的看法,信息量很大。

期間,鍾晱晱拋出的話語足以稱得上“語出驚人”了,尤其是對“網絡暴力”和“網絡算法”兩個話題的表達,在全網持續發酵,引發熱議。

今年3月,農夫山泉和他本人受到了自公司成立以來最爲嚴重的一次網絡攻擊。他認爲,這場網絡暴力的背後是算法遭到利用,就是有人利用了算法,屏蔽了多角度來的消息。

“當你打開這些平臺,看到的總是同樣的內容。有人在利用技術手段,這些人造成的傷害遠遠超過普通人所造成的傷害。需要社會去遏制,需要政府站出來主持公平。”鍾睒睒認爲。

他還質疑,在謠言中,是否都需要一個反派角色來製造對立,正如好萊塢電影中常見的那樣?如果缺乏這樣的對立,一些平臺似乎難以持續吸引流量,如果是這樣,他認爲,這樣的平臺是極其惡劣的。

“算法的惡是有知識的人生產的,不是底層老百姓,老百姓仍然是受害者,那些罵鍾睒睒的人不是既得利益者,他們也是受害者,他們因爲不瞭解真相而懷有仇恨,實際上,我們需要的是良好的營商環境和對企業家的尊重。”鍾睒睒說。

他在訪談中甚至直接喊話字節跳動創始人張一鳴:“希望張一鳴先生,抖音、今日頭條及一切對我個人有過謠言傷害的,我在等待你們誠懇地道歉!我在等待。”

鍾睒睒在演講中直言:“請停止對一箇中國公民的侵害!”

算法之“惡”

算法想要“讀懂”用戶一點都不難,以抖音爲首的短視頻平臺的推薦算法會根據用戶的行爲數據(如觀看歷史、點贊、評論、分享等)來分析用戶的喜好,並據此推薦相關的內容。

這種算法推薦邏輯不僅提高了用戶的滿意度和留存時長,還直接增加了平臺的流量和商業價值。

這是人性使然,算法正在“操控”人性。

算法就如同一頭長着火眼金睛的怪獸,它環伺在側,一味揣摩和取悅用戶,通過精準的計算和推送,使得用戶的信息獲取越來越歸從於個人的喜好,而把與自己興趣和觀念相左的信息排除在外,用戶被引入偏見狹隘的信息領域。

以抖音等短視頻平臺,依賴算法推薦進行短視頻內容分發,無數用戶正不自知地陷入“信息繭房”。

張一鳴曾有一句名言:“算法沒有價值觀”。

誠然,算法沒有情緒、立場和價值觀,但控制算法或者設計算法的人會有。

算法設計者會受到個人立場的影響,將攜帶的主觀價值判斷和行爲決策嵌入相關程序中。

在“流量爲王”的傳播環境中,算法設計者會傾向於將更容易斬獲用戶關注的低俗劣質信息賦予更多的權重。

隨着算法與外界環境交互,謠言、負面信息都會被利用,推薦給用戶,形成反饋循環,進一步強化原有社會偏見。這使得不同立場之間的隔閡、對立、誤解與撕裂進一步加劇。

以農夫山泉和鍾睒睒爲例,在算法推薦下,將紅色瓶蓋關聯日本國旗、“農夫山泉的山是富士山”,成爲流量盛宴。

只要短視頻標籤帶上“農夫山泉”“鍾睒睒”,便能被算法推薦給更多用戶,獲得流量。

大量謠言、陰謀論的視頻被算法瘋狂推薦,直接裹挾了用戶的情緒和價值觀。

在算法的推波助瀾下,這場網絡暴力也對農夫山泉的業績造成直接影響。

農夫山泉的半年報顯示,2024年的1月份和2月份,集團包裝飲用水產品銷售情況良好,該兩個月的銷售收益較去年同期增長19.0%。

但自今年2月底開始,網絡上出現了大量對農夫山泉及鍾睒睒的輿論攻擊和惡意詆譭,對其品牌及銷售造成了巨大的負面影響。2024年上半年,集團錄得包裝飲用水產品收益爲人民幣85.31億元,較去年同期下降18.3%。

由誰負責?

那麼,在算法推波助瀾下的謠言傳播、網絡暴力,互聯網平臺究竟是否該承擔責任?

鍾睒睒認爲,“任何一項在盈利平臺上發佈的謠言,平臺都應該承擔法律責任,這就像我一個製造企業,生產假貨和銷售假貨同罪。”

“誰受益,誰負責”的邏輯線非常清晰,算法加持下,流量生意的最大受益者無疑是平臺。那麼,平臺就該對謠言、網絡暴力負責。

鍾睒睒強調稱:不要以任何所謂“避風港原則”進行搪塞。

“避風港原則”簡單來說就是,網絡平臺在接到通知後及時刪除侵權內容就無需承擔責任,否則就要承擔責任。

其實,法律除了“避風港原則”外,還有一項原則,被專家學者們稱之爲“紅旗原則”。

“紅旗原則”是指,當侵權事實顯而易見,像“紅旗一樣飄揚”時,網絡服務提供者不能假裝看不見,或者以不知道侵權爲由推脫責任。在這種情形下,即使權利人沒有發出刪除通知,網絡服務提供者也應當承擔侵權責任。

有法律人士解釋稱,“避風港原則中的‘通知規則’和紅旗原則中的‘知道規則’在司法適用上是並列關係。”

覆盤對農夫山泉、鍾睒睒的網絡暴力,是完全符合紅旗原則的。作爲平臺,通過算法將謠言短視頻推薦給大量用戶,甚至形成刷屏之勢,謠言完全已經像“紅旗一樣飄揚”。

更惡劣的是,對於製造謠言的短視頻,平臺甚至還給予相關話題的高流量內容的現金獎金,進一步刺激了錄製謠言視頻的動力。

“信息繭房”愈演愈烈

芝加哥大學教授凱斯•R•桑斯坦在其著作《信息烏托邦》中提出“信息繭房”的概念,即“因公衆自身的信息需求並非全方位的,公衆只注意自己選擇的東西和使自己愉悅的通信領域,久而久之,會將自身桎梏於像蠶繭一般的‘繭房’中。”

很顯然,這種算法推薦機制加速了互聯網“信息繭房”的構建。

在算法持續迭代,即便是同一短視頻內容,不同用戶看到的評論區都是“可控”的,進一步裹挾了用戶觀點。

評論區本應是不同觀點自由表達的場所,但算法操控下,每個用戶優先看到的是與自己意見一致的同質化評論,這不僅限制了用戶的認知,還強化了偏見。使得不同立場之間的隔閡、對立、誤解與撕裂進一步加劇。

放任算法,我們每一個人都將被推入“信息繭房”的深淵。

結語

“技術中性”不能等同於“價值中性”,不能讓價值觀成爲算法技術的附庸。

算法推薦,毋庸置疑是一個價值觀問題,技術可以沒有價值觀,但是作爲技術發明者、操縱者的人,不可能沒有價值觀。

近年來,在算法的推波助瀾下,網絡暴力層出不窮,甚至造成了自尋短見、墜樓等人間慘劇。

針對算法推薦引發的諸多亂象,相關監管部門頻頻依法重拳出擊——約談、處罰整改、永久下架、暫停算法推薦功能等手段多措並舉。

算法推薦不僅是價值觀問題,還是法律問題,需要糾正“流量爲王”的價值觀,用積極健康、符合公序良俗的價值觀指引算法推薦的設計和應用。

算法的應用不僅需要技術自身的中立性,還需要法律和社會規範來約束其背後的人和平臺公司。