<code id='6F5559A60C'></code><style id='6F5559A60C'></style>
    • <acronym id='6F5559A60C'></acronym>
      <center id='6F5559A60C'><center id='6F5559A60C'><tfoot id='6F5559A60C'></tfoot></center><abbr id='6F5559A60C'><dir id='6F5559A60C'><tfoot id='6F5559A60C'></tfoot><noframes id='6F5559A60C'>

    • <optgroup id='6F5559A60C'><strike id='6F5559A60C'><sup id='6F5559A60C'></sup></strike><code id='6F5559A60C'></code></optgroup>
        1. <b id='6F5559A60C'><label id='6F5559A60C'><select id='6F5559A60C'><dt id='6F5559A60C'><span id='6F5559A60C'></span></dt></select></label></b><u id='6F5559A60C'></u>
          <i id='6F5559A60C'><strike id='6F5559A60C'><tt id='6F5559A60C'><pre id='6F5559A60C'></pre></tt></strike></i>

          首页 > 國際微訪談 > 正文 : 男性和女性的評論區不一樣,算法連這也不放過了?-傻瓜新闻
          男性和女性的評論區不一樣,算法連這也不放過了?-傻瓜新闻
          2024-11-22 12:19:29来源: 國際微訪談 编辑: 河南



          前兩天,男性一個老生常談的和女話題引爆了互聯網,連續兩天上了微博熱搜。评论

          它叫「 信息繭房 」。样算也



          不少人之前就聽過這詞,也了解過它,男性但這次大家反應這麽大,和女是评论因為這是他們第一次,如此直觀地麵對信息繭房。样算也

          事情是法连放过這樣的。

          有網友發現,男性在一個內容關於情侶吵架的和女視頻下方,不同賬號看到的评论評論區是不一樣的。

          他的样算也賬號看到的評論區,靠前的法连放过評論都出自於男性網友,立場也都是從男性出發;女朋友賬號看到的評論區,則恰恰相反。

          左男右女



          在這條微博下麵,有很多網友質疑,這無形中會不會影響我們判斷。



          第二天,有位博主看到這視頻後,決定做個測試。

          她注冊了一個新抖音號,關注了一笑傾城,不斷給老年人視頻點讚,在網絡世界裏喬裝成中老年人。



          如此操作一個小時後,她發現自己進入了一個新世界。

          在線 PK 的不再是年輕的主播,而是幾位毛發稀疏、頭頂鋥亮的大爺;線上連麥的網友,也是差不多歲數的阿姨。

          在一個大爺品茶的視頻下方,排在前列的評論,都來自於真實的中老年人。

          但當博主切回自己的賬號,找到這條品茶視頻時,評論區的第一條卻是一個從未見過的評論。



          這意味著,不一樣的年齡看到的評論區也不一樣。

          事情發酵後,立馬引來了眾多網友的質疑。除了轉發和評論,他們還紛紛跑到原視頻評論區下,做起了測試

          有人問,能看到他評論的網友,是男是女;

          有人貼出自己的評論區截圖,讓其他人看看是否一樣;



          還有不少人聯想到之前的經曆,認定「 算法確實在定製評論區 」。

          比如一位四川 IP 的網友說,每次刷到第一條評論都是吃個四川人。



          也有一堆人表示難怪每次刷評論,發現別人都在虛空對線,合著評論區就不是一個版本唄。



          甚至還有更「 陰謀論 」的說法,認為這是短視頻平台通過算法,故意挑起男女對立。

          其實在聽說這事後,差評君也拿了三個同事( 1 男 2 女 )的手機做了測試。

          但我們發現,在原視頻下方,除了個別評論的順序稍有不同,評論區整體來說是一樣的。



          為了排除同 IP 的情況,我也找了幾十公裏開外的朋友測試,情況也是如此。

          可能我們來遲了,或者還在灰度?

          後來我也另外翻看了幾個博主,分別是美女主播、男科大夫、彩禮話題的律師。

          這些主題相對容易引起性別對立,我想看看他們的評論區是否有網友說的「 性別定製 」。

          結果在最後一位律師的評論區,我們才遇到靠前評論差別較大的情況,至於其他兩位,完全一致。



          基於此和以往經驗,我不能說短視頻平台的評論排序是在故意推動什麽,但我可以說:它絕非是完全按照熱度 & 時間的維度排序。

          以往我們打開一些社交平台的評論區,會看到這樣兩個選項:熱度 & 時間。



          但是在短視頻平台,用戶卻沒有選擇評論排序的權利。

          比如抖音上熱度低的評論有時會在熱度高的前麵;



          類似情況也出現在快手。



          我們是沒法判斷短視頻評論區是否接入了算法,但,要是連評論排序都不給用戶自主選擇的權利,這無疑也會加重信息繭房,進而帶偏大家的三觀。

          首先要弄清楚的是,「 信息繭房 」不是算法時代的產物,它源自於桑斯坦 2006 年的書《 信息烏托邦 》,講的是一個現象

          公眾隻會注意自己選擇的東西和使自己愉悅的領域,久而久之,會將自身桎梏於像蠶繭一般的 “ 繭房 ” 中。

          而算法的出現,會加劇「 信息繭房 」形成。

          因為我們不斷被投喂自己喜歡看的,想要看的東西。信息輸入一旦單一化,我們看事情的維度也會變得單一,思維就會狹隘。

          德國電影學家 Siegfried Kracauer 寫過一本書《 電影的本性 》,當中講到一個故事。



          有導演拍了部城市小短片,放給從沒接觸電影的非洲土著居民觀看。

          影片裏展示的是燈紅酒綠,高樓大廈,結果看完後觀眾對這些毫無反應,隻熱烈討論短片中短暫出現的一隻雞。

          導演自己都不知道短片裏會有一隻雞,後來發現在某 1 秒鏡頭的角落晃過一隻雞。

          為啥土著人關注到了雞?因為他們隻認識雞,所以雞成了主角,不認識的高樓大廈變成了背景。

          後來電影學中就有這麽一句話:你是否看見了一隻雞。

          意思是每個人在閱讀一部作品時,我們看到的,隻是我們眼中的那隻雞,它取決於我們所接收過的信息。

          就好比讓大夥兒說一部自己最喜歡的電影,你也許會選《 奧本海默 》,你的朋友可能會選《 芭比 》,你的表舅可能選《 戰狼 》。

          但不管是誰選,他的答案一定局限在「 他所看過的電影 」。



          決定答案的,是經曆,是認知,是輸入進腦裏的信息。一旦算法讓你接收到的信息變得單一,你看待和分析事情就會變得片麵。

          片麵是其一,其二,變得極端。

          因為我們隻能聽到自己認同的看法,在不斷重複不斷加深後,我們思維就會固化,排除異己,最終出現回音室效應,觀點在腦子裏放大,膨脹,變得極端。

          在網絡上我們經常會看到,持不同意見的人吵得不可開交。

          因為在他們目光所及的世界裏,他們都覺得自己是正確的,是大多數,和自己不一樣的人簡直不可理喻。

          但真實複雜,包羅萬象的世界,事情並不是非黑即白的。

          圖源 Caspar Camille Rubin on Unsplash



          不知道大家有沒有同感,即使是在評論按熱度排序的年代,很多帖子裏,也經常出現整個樓層的三觀被高讚評論帶偏的情況,持相反意見的人排在很後麵才能被看到。

          因為人都有從眾心理,相對於宣揚自己的判斷,人們更傾向於不孤立自己。自己的想法,有時還要看到風向才能確定。

          那如果評論區再幹脆不按熱度排序,交由算法統治了,又會是什麽樣子呢?

          這會導致有共同的標簽( 性別、愛好 )的人,被拉在同一個群體評論區,會導致一些本該被你掃到一眼的相反意見完全消失。

          人們更容易趨於一致,也更容易極端化,和別的群體會更割裂。

          你可以想象一下,如果男女真的分開上網,雙方完全聽不見對方的想法,性別對立是會減小還是大大加深呢?

          圖源 Gilles Lambert on Unsplash



          當然,以上種種,對於大部分人來說,不過隻是一種隱憂。

          真正信息繭房的形成,條件比較苛刻。

          清華大學和中國傳媒大學兩位學者曾發表一篇文章,提到「 信息繭房 」是個似是而非的概念,沒有有力的研究能證實它的存在,造成「 信息繭房 」的環境很難出現。

          諸如 2019 年第 3 季度,抖音用戶數 6.06 億,快手用戶數 4.14 億,這些用戶重合率達到 36.4% ,這意味著人們一般不大可能處在一個能形成信息繭房的「單一信息環境 」裏。



          畢竟,我們平時接受信息的方式有很多,各種社交媒體平台、朋友圈等等,這些都可以幫助我們去認知世界。

          真正值得擔心的,則是一部分被忽略的群體,比如:中老年人。

          他們往往處在低頻、單線程的社交環境中,他們認識互聯網世界的方式,除了微信可能隻有某個短視頻平台。對於他們來說,長期隻獲取自己「 應該 」獲取的信息,真的沒問題嗎?

          不過,即便信息繭房形成條件苛刻,也並不妨礙大家關注和警惕它。

          今日頭條是最早一批用算法機製的新聞 App ,推出僅四年,日活超 6000 萬,用戶平均使用時長 76 分鍾。

          這就是個性化推薦的魔力,吸引用戶,留存用戶。



          在當時,我們並沒有覺得這件事有啥不對勁,隻覺得很新鮮,甚至有點沉迷。

          之後這些年,越來越多 App 接入算法係統。從以「 關注體係 」為生的微博,到以專業戰報起家的懂球帝,再到以傳統論壇獲得網友們喜愛的虎撲,紛紛改版。

          無數 App 寧可拋棄自己的傳統和基因,也一定要壯士斷腕般地投身算法。



          雖然用戶一開始有些不適應,但日活和數據卻呈現出兩個字:真香。

          久而久之,用戶也覺得可以接受,不過是內容變多變雜了嘛。

          直到這次事件曝光後,大家才開始覺得不對勁了。

          因為,它終於觸碰了觀眾的蛋糕。

          眾所周知,視頻製作者和評論區發言者的話語權是不對等的。視頻中輸出觀點的影響力,評論區則需要一萬個持相同觀點的人才可以相提並論。

          大家害怕算法剝奪自己聚起來發生的權利。

          況且,算法沒有給你推薦的內容,你還可以搜索到。

          但算法沒有給你推薦的評論,你很難再精準定位到它們。它們沉底在幾千幾萬條的評論區,甚至可能被完全隱藏,在你的互聯網裏銷聲匿跡。



          我明白,算法是當前信息過載的時代,簡化人們接受信息的必然產物,也是很多平台為了拉長用戶留存時間,早晚都會使用的技術手段。

          但算法值得大家警惕,它像一個暗自入侵的機器人,從給你投喂視頻,到在潛移默化中影響甚至塑造我們的人格。

          其實它無非就是一個數學模型,是可以調整和優化的,是能避免我們處在過於單一的信息環境中,隻不過決定權在於它們背後的大腦罷了。

          早之前,江湖上就流傳著一個段子:

          互聯網的作用,原本是讓井底之蛙開一開眼界,認識一下井口以外的世界。可實際情況是成千上萬隻井底之蛙通過互聯網互相認識,互相認同和肯定,並經過長久的交流之後達成共識:世界確實隻有井口這麽大。

          詼諧的背後,是沉重的事實。

          但如今看來,算法似乎讓它變得,更沉重了。