Facebook的假新聞問題……已經病入膏肓/Frederic Filloux

Facebook的同溫層小泡泡示意圖。

要評鑑新聞來源的真實度,並不是件容易的事,尤其Facebook因為它的機制設計問題,所以評鑑起來更難。現在,就讓我們來看看社群媒體們現今需要面對的幾個問題。

[embed]https://medium.com/@smokingtuna/frederic-filloux-e09548950a6[/embed]

問題#1:進行真實度查核、並且標示假新聞

對於假新聞問題,Facebook的答案是「聘請10,000位檢查專員」,這一點真的很豪氣。但想想看,每一天都有超過1億條連結出現在Facebook上;假設其中只有10%需要確認,每位專員也只有25秒的時間來判斷它們的真實性。

而且,這還不包括每天300,000支直接上傳到Facebook的影片,以及每分鐘有400小時份量被上傳到YouTube、最後還是出現在Facebook上的影片。

去年,Facebook也表示會聘用專業的真實度查核單位,來清理網頁河道上有問題的內容。然而,無論是相關研究也好、或是光用常識判斷也好,都看得出來這些作法只是杯水車薪。

在這個月出版的《以群眾力量判斷新聞品質》(Crowdsourcing judgements of news source quality)的這篇研究報告中,耶魯大學學者Gordon Pennycook與David G. Rand提出了對新聞真實度查核的看法:

雖然借助專業查核機構有其作用,但要用這種方式來對抗社群媒體上的假新聞問題,可能還是力有未逮。

首先,對新聞進行查核需要耗費大量時間精力,但要製造假內容卻不費吹灰之力。也就是說,即使是專業的查核單位,也跟不上假新聞持續產生的速度,所以大部分的假新聞不會被抓到。

即使有假新聞被抓到,但從它爆紅到被標示出來,中間仍然有一段時間差;舉例來說,從某則新聞上線,到它被Facebook列為「經第三方查核單位標示有爭議性」,通常需要三天時間。

另外一篇由三位學者發表的《社群媒體標示假新聞的實際效果》(The Effects of News Source Ratings on Fake News in Social Media)這篇報告,也有類似的結論:

對於假新聞的傳播速度,以人力來進行逐篇檢查是緩不濟急的作法。社群媒體上的假新聞只能用「野火燒不盡,春風吹又生」來形容。等到假新聞被抓出來的時候,已經有很多人讀過、而且傷害也已經造成。

也就是說,這樣的時間差讓查核結果往往只是「事後諸葛」;所以,學界呼籲採用更主動積極的方法,來避免大眾被經過扭曲的新聞影響。……由於假新聞的作用期間通常很短,所以等到查核完畢之後,它們的任務通常也已經達成。

所以,利用專業單位來查核新聞是沒有用的。或許這樣的機制對於專業記者或媒體來說,有它一定的肯定和安慰效果,但實際的效益近乎是零。

尤其以社群媒體上每天灌入的巨量資訊來看:

查核機制等於只是淨化了整條污染大河中的一滴水,並不濟事。

問題#2:「隱喻效應」

更糟糕的是,還有一種叫做「隱喻效應」的問題。簡單說,就是如果我們標示河道上的某條新聞有問題,那是否隱喻著其他的新聞都「沒問題」、甚至等於為其他新聞的真實性背書?

在前述的《以群眾力量判斷新聞品質》一文中提到:

如果標示假新聞沒辦法做到滴水不漏,反而會產生潛在的「隱喻效應」。研究結果顯示,當我們在某些新聞上加標警示訊息的時候,人們會相信沒有加上標示的新聞都已經經過查核、而且沒有問題。

問題#3:過度相信「按讚數」的力量

Facebook的另外一個問題,在於各方對於互動量(點閱和按讚數)先入為主的觀念,而這個數字又是整個Facebook量化架構的基礎;然而,對於互動量的過度重視,又助長了假新聞的猖獗。

根據Pew Research的研究報告 (PDF下載),有23%的社群網站用戶承認自己散佈過假新聞;其中有16%表示是意外、14%是故意(有些人兼具兩者)。而這些散佈的行為,又經過Facebook演算法的推波助瀾而加強了效果。

一位業內人士在這篇Wired網站上的文章中透露:

Facebook在提供廣告版位時,不僅是以「價高者得」為原則,還會利用一個特殊的機制,來檢視這個廣告是否具有「吸引點閱」的能力。

假設Facebook的機制認為A廣告吸引點閱的能力,比同性質的B廣告高出10倍,那麼A的標購能力就比願意付出相同廣告費的B高出10倍。……這樣的能力認定機制,同樣應用在新聞河道上、也同樣以能吸引來的互動量作為基準。

由於使用者多半只在自己的「同溫層」中積極互動,再加上Facebook刻意「最佳化」的內容呈現,於是這樣的「同溫層─積極互動─同溫層訂製內容─更多互動」模式就會繼續無限跳針循環下去。

問題#4:「一窩蜂效應」

這個問題,又跟前面一個有些關聯。

每個電商網站都會使用一種手法,就是在使用者搜尋出來的結果列表中,最前面放上幾個「最多人買」的項目,暗示這些產品「經過最多用戶認證」;而這一點,在社群媒體上也有相同的效果。

在2014年發表的研究報告《來源資訊對線上新聞接受度的影響》(The effects of source cues on online news perception)指出:

在過去的研究結果中,已經廣泛支持了「一窩蜂效應」對於使用者認定網路新聞真實性的影響。

……所謂「一窩蜂效應」,就是「大家都在看」會成為人們做判斷時的一條捷徑,傾向相信「許多人推薦」而非「一個人推薦」,認為「如果大家都說讚,我也應該說讚」……

「如果大家都相信、我也就相信」。

在網路新聞閱讀方面,「一窩蜂效應」也獲得了證實。當研究員告知受測者,某些新聞是由編輯、電腦、其他讀者、甚至其他受測對象所挑選出來的時候,受測者給予最高品質評價的文章,竟然是那些「其他人也覺得很好」的,而非「編輯推薦」的、或是他們自己認為很好的。

問題#5:假新聞的構成方式

隨著有心人士炮製假新聞的手法越來越純熟(甚至背後還有金援),新聞內容的真假也越來越難分辨。有些號稱「當事人現身說法」的新聞影片,後來證實只是演出;例如有影片號稱是不久前美國校園槍擊案的倖存者上鏡,後來也證明是假造的。

但這些造假在現形之前,早已經登上YouTube熱門排行榜、也被見獵心喜的人趕快轉到Facebook上了。對於這一點,YouTube在一篇Wired網站文章上有些辯解:

假的槍擊案倖存者影片之所以能登上YouTube熱門榜,並不是它自己意外爆紅,反而是YouTube假新聞查核機制造成的結果。YouTube指出,它們的系統將該影片「錯誤分類」,因為「影片中包含了來自權威媒體的片段」。

很顯然的,YouTube的演算法缺乏過濾這類問題所需的智慧。

而且毫不令人意外的,謠言在Facebook上不斷傳播:

無論是YouTube(全世界最主要的影片提供者之一)或Facebook(最大的假新聞集散中心),要解決這個問題並不困難,只要取消造成一堆問題的熱門排行榜就行了。

不過,相信這兩大巨頭都不會選擇這麼做,因為……

廣告費多半都是從這邊來的。

問題#7:Facebook的封閉社群與「確認偏誤」

以下是《社群媒體標示假新聞的實際效果》一文中的相關分析:

Facebook會透過追蹤用戶閱讀的內容、以及反應的動作(如按讚、留言、分享)來瞭解他們的特定喜好。

作為一家商業公司,Facebook是以「最大的用戶滿意度」為目標,也因此刻意顯示符合用戶喜好的內容,讓用戶看到能強化他們固有認知的文章。

然而,這樣的作法會逐漸縮小接收資訊的廣度、讓用戶活在小小的資訊泡泡裡(也就所謂的「同溫層」),讓用戶誤以為大家想的都跟他們一樣、世界上都是跟他們類似的人。

因為這樣的文章推薦機制,也讓用戶看到的文章都是他們先前看過的題材、甚至符合他們對許多事情已有的定見。這種投其所好、刻意略過不同意見的狀況,就稱為「確認偏誤」(confirmation bias)。在這樣的現象中,讀者只會相信符合他們既有想法的資訊。

Facebook這種助長「封閉同溫層」的機制,也會影響對於新聞真實性的鑒別。在以下的研究圖表中,就顯示了新聞來源熟悉度對於可信度認知的影響:

編按:圖表縱軸為「(美國)共和黨人信任度」、橫軸為「民主黨人信任度」;各個點則為不同媒體。綠色點為主流媒體、黃色點為特定立場鮮明的媒體、紅色點則為知名假新聞來源。

圖中斜線以上表示「共和黨人信任度較高」、以下為「民主黨人信任度較高」。大致上來說,共和黨(Republicans)屬於傳統保守性質,民主黨(Democrats)則較屬自由改革派。

右圖是在去除「表示對該網站不熟」的受測者時(也就是受測者「瞭解各網站性質」),所顯示的信任度座標。

在受訪者瞭解媒體特性的前提下,特定立場媒體的信任度大幅提高了約1.5倍(與左圖相較)、假新聞媒體的信任度高了近2倍;但主流媒體的信任度只提高了1.15倍。

你要他們怎麼辦?

以上談到的這些,都不會是很快會有解決方案的問題。並不是因為包括Facebook、YouTube、或是Twitter在內的社群媒體不想解決,而是因為這些問題根本已經成為他們基因的一部分。

更重要的是,他們的商業模式也有一部分就奠基在這上面,你要他們能怎麼辦?

(編譯/ Fred Jame


本文已獲作者授權並經本站重新編輯,未經書面許可禁止轉載。本站文章提供付費授權轉載或出版,請參閱授權說明、或來信 ask@tuna.to 洽詢。如果您喜歡這篇文章,請多按下方的「拍手」圖像幾次、或是分享到社群網站上!