前兩天,男性一個老生常談的和女話題引爆了互聯網,連續兩天上了微博熱搜。评论
它叫「 信息繭房 」。样算也
不少人之前就聽過這詞,也了解過它,男性但這次大家反應這麽大,和女是评论因為這是他們第一次,如此直觀地麵對信息繭房。样算也
事情是法连放过這樣的。
有網友發現,男性在一個內容關於情侶吵架的和女視頻下方,不同賬號看到的评论評論區是不一樣的。
他的样算也賬號看到的評論區,靠前的法连放过評論都出自於男性網友,立場也都是從男性出發;女朋友賬號看到的評論區,則恰恰相反。
左男右女▼
在這條微博下麵,有很多網友質疑,這無形中會不會影響我們判斷。
第二天,有位博主看到這視頻後,決定做個測試。
她注冊了一個新抖音號,關注了一笑傾城,不斷給老年人視頻點讚,在網絡世界裏喬裝成中老年人。
如此操作一個小時後,她發現自己進入了一個新世界。
在線 PK 的不再是年輕的主播,而是幾位毛發稀疏、頭頂鋥亮的大爺;線上連麥的網友,也是差不多歲數的阿姨。
在一個大爺品茶的視頻下方,排在前列的評論,都來自於真實的中老年人。
但當博主切回自己的賬號,找到這條品茶視頻時,評論區的第一條卻是一個從未見過的評論。
這意味著,不一樣的年齡看到的評論區也不一樣。
事情發酵後,立馬引來了眾多網友的質疑。除了轉發和評論,他們還紛紛跑到原視頻評論區下,做起了測試。
有人問,能看到他評論的網友,是男是女;
有人貼出自己的評論區截圖,讓其他人看看是否一樣;
還有不少人聯想到之前的經曆,認定「 算法確實在定製評論區 」。
比如一位四川 IP 的網友說,每次刷到第一條評論都是吃個四川人。
也有一堆人表示難怪每次刷評論,發現別人都在虛空對線,合著評論區就不是一個版本唄。
甚至還有更「 陰謀論 」的說法,認為這是短視頻平台通過算法,故意挑起男女對立。
其實在聽說這事後,差評君也拿了三個同事( 1 男 2 女 )的手機做了測試。
但我們發現,在原視頻下方,除了個別評論的順序稍有不同,評論區整體來說是一樣的。
為了排除同 IP 的情況,我也找了幾十公裏開外的朋友測試,情況也是如此。
可能我們來遲了,或者還在灰度?
後來我也另外翻看了幾個博主,分別是美女主播、男科大夫、彩禮話題的律師。
這些主題相對容易引起性別對立,我想看看他們的評論區是否有網友說的「 性別定製 」。
結果在最後一位律師的評論區,我們才遇到靠前評論差別較大的情況,至於其他兩位,完全一致。
基於此和以往經驗,我不能說短視頻平台的評論排序是在故意推動什麽,但我可以說:它絕非是完全按照熱度 & 時間的維度排序。
以往我們打開一些社交平台的評論區,會看到這樣兩個選項:熱度 & 時間。
但是在短視頻平台,用戶卻沒有選擇評論排序的權利。
比如抖音上熱度低的評論有時會在熱度高的前麵;
類似情況也出現在快手。
我們是沒法判斷短視頻評論區是否接入了算法,但,要是連評論排序都不給用戶自主選擇的權利,這無疑也會加重信息繭房,進而帶偏大家的三觀。
首先要弄清楚的是,「 信息繭房 」不是算法時代的產物,它源自於桑斯坦 2006 年的書《 信息烏托邦 》,講的是一個現象:
公眾隻會注意自己選擇的東西和使自己愉悅的領域,久而久之,會將自身桎梏於像蠶繭一般的 “ 繭房 ” 中。
而算法的出現,會加劇「 信息繭房 」形成。
因為我們不斷被投喂自己喜歡看的,想要看的東西。信息輸入一旦單一化,我們看事情的維度也會變得單一,思維就會狹隘。
德國電影學家 Siegfried Kracauer 寫過一本書《 電影的本性 》,當中講到一個故事。
有導演拍了部城市小短片,放給從沒接觸電影的非洲土著居民觀看。
影片裏展示的是燈紅酒綠,高樓大廈,結果看完後觀眾對這些毫無反應,隻熱烈討論短片中短暫出現的一隻雞。
導演自己都不知道短片裏會有一隻雞,後來發現在某 1 秒鏡頭的角落晃過一隻雞。
為啥土著人關注到了雞?因為他們隻認識雞,所以雞成了主角,不認識的高樓大廈變成了背景。
後來電影學中就有這麽一句話:你是否看見了一隻雞。
意思是每個人在閱讀一部作品時,我們看到的,隻是我們眼中的那隻雞,它取決於我們所接收過的信息。
就好比讓大夥兒說一部自己最喜歡的電影,你也許會選《 奧本海默 》,你的朋友可能會選《 芭比 》,你的表舅可能選《 戰狼 》。
但不管是誰選,他的答案一定局限在「 他所看過的電影 」。
決定答案的,是經曆,是認知,是輸入進腦裏的信息。一旦算法讓你接收到的信息變得單一,你看待和分析事情就會變得片麵。
片麵是其一,其二,變得極端。
因為我們隻能聽到自己認同的看法,在不斷重複不斷加深後,我們思維就會固化,排除異己,最終出現回音室效應,觀點在腦子裏放大,膨脹,變得極端。
在網絡上我們經常會看到,持不同意見的人吵得不可開交。
因為在他們目光所及的世界裏,他們都覺得自己是正確的,是大多數,和自己不一樣的人簡直不可理喻。
但真實複雜,包羅萬象的世界,事情並不是非黑即白的。
圖源 Caspar Camille Rubin on Unsplash
不知道大家有沒有同感,即使是在評論按熱度排序的年代,很多帖子裏,也經常出現整個樓層的三觀被高讚評論帶偏的情況,持相反意見的人排在很後麵才能被看到。
因為人都有從眾心理,相對於宣揚自己的判斷,人們更傾向於不孤立自己。自己的想法,有時還要看到風向才能確定。
那如果評論區再幹脆不按熱度排序,交由算法統治了,又會是什麽樣子呢?
這會導致有共同的標簽( 性別、愛好 )的人,被拉在同一個群體評論區,會導致一些本該被你掃到一眼的相反意見完全消失。
人們更容易趨於一致,也更容易極端化,和別的群體會更割裂。
你可以想象一下,如果男女真的分開上網,雙方完全聽不見對方的想法,性別對立是會減小還是大大加深呢?
圖源 Gilles Lambert on Unsplash
當然,以上種種,對於大部分人來說,不過隻是一種隱憂。
真正信息繭房的形成,條件比較苛刻。
清華大學和中國傳媒大學兩位學者曾發表一篇文章,提到「 信息繭房 」是個似是而非的概念,沒有有力的研究能證實它的存在,造成「 信息繭房 」的環境很難出現。
諸如 2019 年第 3 季度,抖音用戶數 6.06 億,快手用戶數 4.14 億,這些用戶重合率達到 36.4% ,這意味著人們一般不大可能處在一個能形成信息繭房的「單一信息環境 」裏。
畢竟,我們平時接受信息的方式有很多,各種社交媒體平台、朋友圈等等,這些都可以幫助我們去認知世界。
真正值得擔心的,則是一部分被忽略的群體,比如:中老年人。
他們往往處在低頻、單線程的社交環境中,他們認識互聯網世界的方式,除了微信可能隻有某個短視頻平台。對於他們來說,長期隻獲取自己「 應該 」獲取的信息,真的沒問題嗎?
不過,即便信息繭房形成條件苛刻,也並不妨礙大家關注和警惕它。
今日頭條是最早一批用算法機製的新聞 App ,推出僅四年,日活超 6000 萬,用戶平均使用時長 76 分鍾。
這就是個性化推薦的魔力,吸引用戶,留存用戶。
在當時,我們並沒有覺得這件事有啥不對勁,隻覺得很新鮮,甚至有點沉迷。
之後這些年,越來越多 App 接入算法係統。從以「 關注體係 」為生的微博,到以專業戰報起家的懂球帝,再到以傳統論壇獲得網友們喜愛的虎撲,紛紛改版。
無數 App 寧可拋棄自己的傳統和基因,也一定要壯士斷腕般地投身算法。
雖然用戶一開始有些不適應,但日活和數據卻呈現出兩個字:真香。
久而久之,用戶也覺得可以接受,不過是內容變多變雜了嘛。
直到這次事件曝光後,大家才開始覺得不對勁了。
因為,它終於觸碰了觀眾的蛋糕。
眾所周知,視頻製作者和評論區發言者的話語權是不對等的。視頻中輸出觀點的影響力,評論區則需要一萬個持相同觀點的人才可以相提並論。
大家害怕算法剝奪自己聚起來發生的權利。
況且,算法沒有給你推薦的內容,你還可以搜索到。
但算法沒有給你推薦的評論,你很難再精準定位到它們。它們沉底在幾千幾萬條的評論區,甚至可能被完全隱藏,在你的互聯網裏銷聲匿跡。
我明白,算法是當前信息過載的時代,簡化人們接受信息的必然產物,也是很多平台為了拉長用戶留存時間,早晚都會使用的技術手段。
但算法值得大家警惕,它像一個暗自入侵的機器人,從給你投喂視頻,到在潛移默化中影響甚至塑造我們的人格。
其實它無非就是一個數學模型,是可以調整和優化的,是能避免我們處在過於單一的信息環境中,隻不過決定權在於它們背後的大腦罷了。
早之前,江湖上就流傳著一個段子:
互聯網的作用,原本是讓井底之蛙開一開眼界,認識一下井口以外的世界。可實際情況是成千上萬隻井底之蛙通過互聯網互相認識,互相認同和肯定,並經過長久的交流之後達成共識:世界確實隻有井口這麽大。
詼諧的背後,是沉重的事實。
但如今看來,算法似乎讓它變得,更沉重了。