如果假新聞帶來更多金錢,Facebook會在乎嗎?/Frederic Filloux
對於最近引發爭議的「假新聞」事件,Facebook除了有公關危機需要處理之外,其實並沒有那麼真心想要解決這類問題。
[embed]https://medium.com/@smokingtuna/frederic-filloux-e09548950a6[/embed]
總括來說,對於Facebook而言:
Facebook本身終究還是一個「廣告媒體」,而且是很厲害的那種。如果有機會的話,大家不妨研究一下它的廣告設置介面,或是花幾塊錢推一下文章或登個小廣告做實驗;它的推送和觸及能力、以及鎖定廣告對象的精準程度都相當驚人。
Facebook的獲利系統只有一個指標,那就是「頁面瀏覽次數」(也就是一般所謂的「page view」),而文章被分享的次數越多,瀏覽數就越大;我們可以思考看看,哪種類型的文章最容易被分享?
一般來說,最容易被分享的類型不外乎:
感性的,而且最好是滿滿正能量的:例如微笑的小朋友、貓在看電視、或是勵志小故事等等。對於這一點,Facebook完全沒有保留;連他們自己的主管都會告訴社群小編:「多放點感性的東西,這種內容引發的互動最多」。
有趣的東西:像是貓在看電視(又來了)、「10種你必須知道的」類型文章、動漫等等。
身邊的事物:最好是來自使用者自己親朋好友的內容。因為Facebook必須經常修改顯示內容的演算法,來決定哪些內容是適合放在個別使用者的版上,所以來自親朋好友的內容,當然是最安全的類型之一。
同溫層:最好是能讓個別用戶覺得自己被安撫、或是有同感的內容(尤其是在社會或政治觀點上);也因為如此,大家都很容易在Facebook上找到自己的同溫層。
也就是說,文章被分享的次數越多,瀏覽次數就越高,並且成為針對不同受眾設計廣告專案的一部分。
打造你的舒適圈,才符合Facebook的最大利益
那麼,Facebook又是如何設計自己的演算方式,來鼓勵用戶分享呢?最重要的方法之一,是設計出許多的「過濾泡泡」、然後變成一個極大的過濾泡泡系統。
在Facebook上,你點按了哪些東西、以及分享了哪些給「朋友」們,這些資料就會變成你個人檔案、偏好、所屬社群、政治立場、甚至個人世界觀的基礎;而Facebook所要做的事情,則是打造出符合這個世界觀的個人專屬資訊流。
Facebook必須努力幫你打造出一個舒適圈、並且把你「關」在裡面一直按讚和分享。
如果他們不這樣做,就會立刻產生負面的效果:你的點按和分享次數會減少、甚至停留時間也會變短。所以,Facebook必須努力幫你打造出一個舒適圈、並且把你「關」在裡面一直按讚和分享;以美國的用戶為例,Facebook平均為每個人在一天之中創造了40分鐘這樣的體驗。
在紐約時報雜誌最近的一篇文章中,作者Jenna Wortham精準的描述了這個現象:
我花了將近10年的時間,訓練Facebook(還有Instagram和Twitter)知道我不愛看哪些新聞和照片,然後它們也就乖乖照辦。每次我對某篇文章按讚、點了某個連結或隱藏某個連結,演算法就會跟著調整,只顯示「它們認為我比較愛看」的內容。
但也因為這樣,在這次的美國總統大選之中,我甚至沒有發現自己的家人都在網路上支持T候選人、也沒有看到那些在選前支持他的大量網路活動。到了投票當天,我在版上看到的只有H候選人支持者的自拍照片。
接下來的問題是:怎麼樣的新聞最能符合Facebook這個封閉圈圈的要求?
簡單的答案是:「沒有」。
如果新聞沒有經過過濾篩選,分享的次數就不會太高。因為:
即使是感性的文章,也可能是負面的;大家都不會想在朋友圈中分享悲慘的故事。
許多新聞報導的是社會的黑暗面或現實面,並不是每個人都想在舒適圈中面對這些問題。
未經篩選的文章可能會直接挑戰個人的觀點、信仰、以及意見。
所以,對於Facebook的目的來說,篩選來自媒體的新聞是很重要的,而他們也在今年六月調整演算法時承認了這一點;負責新聞串流的產品管理副總裁Adam Mosseri在6月29日時表示:
每個人都期望自己版上的新聞是有用的;而長久觀察下來,我們也發現,人們會對於「看起來內含有用資訊」的文章有較高的評價。
當然,每個人覺得有價值的文章都不一樣,而且大家甚至會將瀏覽自己版上的資訊當作一種休閒娛樂。
我們要做的事情,並不是幫大家決定應該要讀些什麼,而是將人們和想法連結起來、以及為人們找到對他們有意義的文章;而我們必須遵守的原則,則是包容各種不同的視角和觀點,並且透過排序功能,為用戶找到對他們最有意義、最願意參與互動的文章與資訊來源。
我們不會獨厚特定的來源或觀點,而是針對個別用戶所反映給我們的意願,來推送他們最想要看的內容類型。
接下來就是有趣的部份了:從某個角度來看,上述的論點完全沒錯;但從另外一個角度來看,則完全是騙死人不償命。他說「Facebook不會獨厚特定觀點」是真的,但他避而不談的是,一旦找出適合特定個人的內容之後,Facebook的演算法確實會「嚴選」哪些文章是這位用戶真正看得到的。
不過他還算誠實的加上了這一點:
我們之所以這樣做(按:使用演算法排序),不僅因為我們認為這是對的作法,而且這對我們的業務也有幫助;如果大家看到的內容都是自己有興趣的,就會花更多時間在閱讀新聞和文章上,也更能從其中獲得樂趣……。
從技術面來看,Facebook的工程總監Lars Backstrom也強調了粉絲頁管理者挑選內容的重要性:
總括來說,我們可以預見這次(按:演算法的)更新,可能導致某些粉絲頁的到達率和分享流量降低;而實際上的影響程度高低,則會依特定粉絲頁的受眾組成性質而有所差異。……我們會鼓勵粉絲頁經營者,盡可能張貼更多目標受眾會願意跟朋友分享的內容。
換言之,如果Facebook粉絲頁管理者沒有挑選「適當」內容、並且大量推送,觸及率和點閱率就可能受到明顯的影響。不過,演算法造成的結果似乎因人而異;有些人認為整體來說差異不大,但有些個別媒體(例如筆者較熟的紐約時報和一些歐洲媒體)則表示,最近來自Facebook的流量有大幅降低的現象。
或許本文中的引文有點多,但如果那些最近一直抱怨Facebook改了演算法,導致粉絲團互動下降的人,都看過Facebook最近的聲明,應該就不會那麼驚訝,因為人家其實已經都講過了。
「全球社群」的假象
然而,即使媒體們因為自己沒注意聽風聲,所以很難去怪Facebook先斬後奏,但Facebook還是在兩方面有誤導大眾的嫌疑。
第一,Facebook靠著文章快手(Instant Articles)、直播(Facebook Live)吸引了許多媒體投入內容,然後再將這些內容塞進演算法的黑箱裡面,而且只分潤為數不多的廣告費給這些辛苦製作的媒體。
第二,Facebook創辦人Mark Zuckerberg在今年四月的F8大會中,曾經強調過該公司的目標:
我們的目標,是成為每個人之間的橋樑、建立一個全球社群、拉近每個人的距離、讓每個人都可以發聲、讓想法和文化在不同的國家之間交流。……我們的世界,已經從很多彼此孤立的小團體,變成了一個跨越全球的社群,而這正是我們所希望的。
聽起來不錯,但必須說,事實並不全然是這樣:Facebook或許真的建立了一個全球社群,但其中的組成份子仍然是破碎、而且仍然彼此孤立的。
Facebook本身,就是由上千萬個經過精心設計、內部成員彼此分享觀點互相取暖的群組所構成的;每個群組天生的特質,就是防堵不同意見的人們「滲透」進來。而將這樣的特性維持住,也正是Facebook演算法最主要的任務。
Facebook或許真的建立了全球社群,但其中的組成仍然破碎、彼此孤立。
我們必須正視的事實是,Facebook並不在乎「新聞」這種東西在「新聞學」上的定義與專業標準。平均來說,真正的新聞只佔每位用戶版上大約10%左右的份量,而且還可以視需要隨時降低比例。
某位知情人士曾經告訴筆者,如果歐盟國家用先前對Google的內容選擇標準來要求Facebook,後者可能會將所有的新聞從大家的版上拿掉。
廣義來說,「假新聞」的問題只是整個Facebook體系問題的一部分,或者說是鍋裡的一粒老鼠屎;要說聚集了許多一流工程師的Facebook沒有預見到這類事情發生,其實是不太可能的。
然而,Facebook只把它當作一隻小小的寄生蟲,並沒有當作一回事來認真處理;直到這次美國總統大選,有許多人認為是假新聞改變了選舉結果,才讓這個問題浮上檯面。
現在,看起來Facebook必須得提早因應這個狀況,而且其實技術上是做得到的;最近已經有高手在群募網站上募集資金,來開發「假新聞過濾工具」(例如這邊)。在Facebook負責人工智慧技術的Even Yann LeCun則表示:
這類技術其實已經存在、或者也有人正在開發;但問題是,要怎麼使用它才能得到合理的結果?而這一點就不是我所知道的範圍了。
Facebook必須將假新聞壓制到一定程度,才能解決最近延燒的公關問題;但我們也相信,他們一定不會為了輿論的安定,來犧牲自己的賺錢工具。
(編譯/ 施典志 Tenz Shih)
本文已獲作者授權並經本站重新編輯,未經書面許可禁止轉載。本站文章提供付費授權轉載或出版,請參閱授權說明、或來信 ask@tuna.to 洽詢。如果您喜歡這篇文章,請多按下方的「拍手」圖像幾次、或是分享到社群網站上!