Facebook回應Netflix《Social Dilemma》指控

thumbnail

https://about.fb.com/wp-content/uploads/2020/10/What-The-Social-Dilemma-Gets-Wrong.pdf

對於Netflix紀錄片《Social Dilemma》的「指控」,Facebook發表題為《What “Social Dilemma” Gets Wrong?》官方回應,一共七點。開場白直指,片中受訪者均已離職,沒有現職員工參與訪問,有欠公允。

文章喊冤,影片把社媒指控為社會問題的代罪羔羊,更暗示該片屬陰謀論(conspiracy documentaries)。

以一般紀錄片為例,舉凡牽涉大型企業的議題,除非是吹捧,否則想得到該企業高層或在職人士的sound bites,幾乎不可能,因為人家隨時賠掉工作。但為了持平,producers無論如何也會找來正反兩面的聲音,讓觀眾自行判斷。對此,Netflix這套半戲劇半紀錄片確實不足。

但Facebook的回應也頗為誤導。全篇以「Netflix搞錯了」為主旨,卻只點出了紀錄片避而不談、而Facebook自己想提出的論點,並未能舉證任何factual errors。

【1. 我們並非想令你上癮】

Facebook指,兩年前已調整News Feed功能,優先顯示有意義(meaningful)的社交互動次序,並把缺乏營養的viral video排到最後。它聲稱,此一調整直接導致用戶每天花在Facebook上的時間減少5,000萬小時,是面書重視用家well-being遠勝平台使用量的一大佐證。

不過,「有意義」一詞甚為含糊,因人而異。Facebook如何衡量一個post有意義與否,卻未有解釋。而當用家習慣了把「有意義社交」的定義交給Facebook決定、而不是自己賦予時,正正是紀錄片所擔心的問題。

片中指,社媒的Like button等功能以延長用家在平台流連時間為目的。Facebook駁斥,不少功能例如「activity dashboard」、「daily reminder」都是希望用家控制使用量的設計。但既然平台以廣告收益維生,想方法留住用家,本來就合情合理。例如《蘋果》想用家留在app上時間長一點,就寫多點好文,優化interface,提高産品value。而Like button等功能的問題在於它不單止value不大,更有負面效果,令人不能自拔之餘又沒養分,所以萬惡。Facebook對此避而不談,反而搬出一堆較少人用的功能辯護,不但牽強,更錯了重點。

【2. 我們沒把用家當作商品;只是以廣告收益讓用戶得以免費connect】

Facebook不斷強調廣告商只會知道用家類別,並不會向廣告商透露或販售用家個人資料。簡直來說,廣告商不會知道你是誰。

這不是紀錄片質疑的重點。片中明言,社媒收集用家數據並非作販賣之用,而是利用這些data加以分析,掌握用戶喜好,再tailor-make不同內容留住用家。用家跌入無止盡的「人工事實」而不自知,才是問題所在。然而,要一個強大的全球網絡承認這種如魚得水的生意模式對社會有害,談何容易。

【3. 演算法只為提供更合你心意的服務,一眾dating apps、Amazon、Uber甚至Netflix自己,不都一樣?】

沒錯,這種machine learning,也是Netflix的成功之道。但Facebook是社媒,Netflix是串流平台,不是apple to apple的比較,意義不大。

Machine learning及AI只是工具,被用於不同地方當然會產生不同效果。觀眾打開Netflix,AI提供recommendations,情況就跟上一代IMDb的推薦電影功能一樣,是娛樂一種。而Facebook除了擁有社交及娛樂功能外,更是大部分用家的主要新聞資訊來源。這才是紀錄片的憂慮——如此強大的社媒有能力左右社會意識形態,當情況將不受控制,後果可以不堪設想。

例如最近盛行的所謂「取消文化」(Cancel Culture)。此term意指社媒上常見的名人或企業,因為發表了不為大眾接受的言論而遭受各種輿論抵制,以致其代言、贊助等工作機會甚至網上影響力「被取消」。例子有因評論變性問題而被評擊的JK Rowling,或捲入「Kanye West風波」的Taylor Swift。

片中提出,社會之所以比以前更激進分化,因為每個人對同一件事都有不同版本的「事實」。基於方便,不少人加入鍵盤戰圈前,只略讀過三兩篇文章或評論便以為看透了世事。而這些文章或評論,卻是machine learning及AI因應閣下喜好而訂製的。到底偏離事實有多遠,AI不會知道。

然而,紀錄片早就明言,這種風向是人工智能的by-product,是演算法也算不出來的結果,並非社媒本意。

【4&5. 用家私隱度不斷提高;並努力抑止分化性內容出現】

對於兩極分化(polarization) 和民粹主義(populism) 問題,Facebook劈頭就指它們早於社媒出現前就存在,咪賴得就賴。這是事實,畢竟傳統媒體也不見得中立;亦不是全人類都有閱讀習慣。

但Facebook的演算法、以至interface,無疑是這兩大問題的加速師。

為了抑制分化內容,Facebook早於2018年便聲稱要令News Feed顯示更多朋友動態,調低專頁內容,還原其作為社交平台的初心。回應文指,現在Facebook上大部份內容都不帶兩極化、甚至政治色彩的題材,而是親友的日常生活。

“The overwhelming majority of content that people see on Facebook is not polarizing or even political—it’s everyday content from people’s friends and family.”

然而,談及政治就是香港人過去一年多以來的日常。筆者在這段時間每天使用Facebook,也沒有覺得帶政治立場的專頁內容有任何減少跡象。但話說回來,如果Facebook只顯示朋友動態,你又會不會再如此愛不釋手?對於Facebook,這無疑是個兩難。

【6&7. 我們確保2016年美國大選受俄羅斯干預事件不會再發生,並正在努力對抗假新聞】

對於2016年俄羅斯公司涉嫌借Facebook廣告及以假帳號干預美國大選一事,Facebook坦然承認責任,並解釋事後已強化防禦體系以阻止別有用心人士利用平台干預選舉。又強調,公司成功趕在全球幾個重要總統大選舉行前已刪除多個可疑帳戶,並跟全球70多家fact-checking公司合作,打擊假新聞,當中包括有關COVID-19的錯誤資訊。

這正正是紀錄片點出的問題:自己監管自己,有咩用?

“The companies are acting like a sort of de facto governments. And then they’re saying: we can regulate ourselves…That’s ridiculous.‘’

就像Facebook在文中多次強調,正與「頂尖心理學家及學者」研究團隊合作,探討面書內容對用家well-being的影響,又另設product team 研究「孤獨感」、「種族平等」等事後補救措施一樣,都只是「盡做」 。肯做,已經好好。

由於缺乏妥善監管機制,你話已經做緊嘢,我哋只得相信。有咩差錯,補返句「仍有進步空間」輕輕放下。香港人應該最明白不過。

但以俄羅斯干預大選一事為例,對家明正言順beat you with your own game,由2015洗腦洗到2017,比任何「十月驚奇」更能左右大局。這種「盡做」,又是否足夠?

其實,Facebook 近年不斷受私隱數據等問題困擾,又遇上比它年輕有為的新晉TicTok、Patreon等搶攻,也開始意識到改變的必要。

所以,Mark Zuckerberg自去年開始就不斷要求政府出手監管平台內容,針對有害內容 (harmful content)、選舉 、隱私及資料可攜權 (data portability) 四方面進行監管。他更於今年2月向歐盟求助,在慕尼黑安全會議 (Munich Security Conference)上承認無法獨力regulate海量內容,建議歐盟沿用介乎類似傳媒及電信公司的現有監管規則對Facebook進行監管。

“We don’t want private companies making so many decisions about how to balance social equities without any more democratic process.”

Netflix與Facebook之間誰是誰非,是一整門學科的議題。一如影片所示,社媒的初心並非要操控人類,而是其影響力已大到近乎失控。解決方法,除了用家自已保持清醒,就是regulation。如何regulate,才是真正的問題。就算紀錄片未能做到一應俱全,至少也是一個reminder,提醒用家在被「操控」之餘,也要盡量保持自主。

Leave a Reply

Your email address will not be published. Required fields are marked *

Back To Top
Copy link