Facebook Pixel Facebook Pixel

還在抱怨臉書的資訊篩選機制嗎?臉書用研究回擊:用戶個人該負首要責任

2015-05-13
新世代媒體
還在抱怨臉書的資訊篩選機制嗎?臉書用研究回擊:用戶個人該負首要責任
當社群媒體逐漸融入日常生活,社會科學家們開始關心社群媒體對網路民眾可能造成的影響。雖然網路有助於人們看到更多元化的資訊,但是社群媒體獨有的運算機制(algorithm)卻可能選擇性地決定民眾看到的資訊內容,而著名的「過濾氣泡現象」(Filter Bubble)和「回聲室效應」(Echo Chamber)也應運而生 [1]。

「過濾氣泡」理論主張運算機制會依據網路民眾先前的網路行為(像是按讚、點擊和搜尋紀錄),決定民眾能夠看到的文章,網路媒體像是臉書和 Google 可以藉此來避免民眾看到和價值觀不符,或不感興趣的內容,導致民眾身處多同質性高的言論環境中;而「回聲室效應」則描述網路民眾更容易接觸到和自己意識形態相似,或是價值觀相符的資訊,進而使得民眾得到的網路訊息越來越趨單一化。

許多學者表示,暴露於多元言論和價值觀的機會,對於民主社會養成有正面影響,包括提高民眾對政治事件的興趣、增加對不同言論立場的包容性,以及提升政治知識等;而處在過高的同質性言論環境,則可能會造成像是態度極化等負面影響。然而也有學者指出,處在異質性的人際網絡中(network heterogeneity),部分個體可能會為了避免衝突而降低參與某些政治活動的意願 [2]。

普遍來說,學者們對於網路媒體運算機制可能造成的影響,像是「過濾氣泡現象」和「回聲室效應」,有諸多疑慮和批評。

然而,社群媒體的運算機制和相關數據多是不公開資訊,進行運算機制實質影響的研究並不容易且不常見,因此當臉書研究員前幾天在《科學》(Science)期刊發表一篇最新報告「臉書上具多元意識形態的新聞與評論接觸」(Exposure to ideologically diverse news and opinion in Facebook),探討民眾臉書社群網絡組成,以及「用戶個人選擇」與「臉書運算機制」對民眾接觸對立政治立場文章的影響,該篇文章隨即在學術圈以及媒體產業界引起一陣熱烈討論。[3]

研究背景與重要發現

在提出這篇研究報告的相關評論前,先來細看重要的研究背景與發現。

研究背景:

  • 研究樣本包括在 2014 年 7 月 7 日到 2015 年 1 月 7 日半年期間,在個人檔案上填寫政治立場的 1010 萬名 18 歲以上的美國活躍臉書用戶(每周需至少登入 4 天),以及約 23 萬筆有關「硬」新聞(像是全國新聞、政治和全球事務新聞等)的連結分享,而每則連結都需要在這半年期間,被至少 20 個前述回報個人政治立場的臉書用戶分享。
  • 研究將用戶回報的政治立場轉換成五點量表(-2:非常民主;+2:非常保守),由於只有 9% 的 18 歲以上美國臉書用戶填寫政治立場,且其中只有 46% 填寫政治立場的用戶其立場可以被轉換成五點量表,因此最終研究樣本只包括大約 4% 的所有美國臉書用戶。
  • 每則「硬」新聞連結的政治立場,是透過計算所有該則新聞分享者政治立場的平均值而得,該數值被稱為「內容對齊」(值; content alignment),正值代表分享文章立場趨保守派立場,而負值則表示分享新聞偏自由派立場。舉例來說,政治立場偏共和黨的 Foxnews.com 其 A 值為 +.80,而被認為偏民主黨的 Huffington Post 的 A 值為 -.65。

研究發現:

  • 研究樣本分享「硬」新聞的行為呈現極化現象,越容易被鮮明政治立場民眾分享的文章(極大或極小 A 值),也就是文章立場越認為越接近自由派或保守派時,分享次數越高。偏保守派文章的分享次數,也比偏自由派文章來得高。

FS4

  • 研究發現臉書用戶交友情況呈現同質性現象(homophily),政治立場偏自由派用戶的臉書朋友網絡中,有更高比例是同樣傾向自由派的用戶,反之亦然。
  • 研究分析用戶在四種狀況下看到(或點閱)的「交叉內容」(cross-cutting content),也就是和用戶政治立場對立的新聞文章,四種情況包括「隨機」(如果用戶能隨機看到所有臉書平台上的內容)、「潛在」(臉書好友們分享的所有內容)、「暴露」(經臉書運算機制調整後,出現在動態牆上的內容),以及「挑選」(用戶自行點擊文章連結)。隨著情況從「隨機」轉變為「潛在」、「暴露」以及「挑選」,用戶接觸的「交叉內容」比例也逐漸下降。換句話說,用戶的臉書交友圈、臉書運算機制,以及個人點擊選擇,都會逐項降低用戶看見的「交叉內容」比例。

FS14

  • 當處在「隨機」情況,用戶看見的「交叉內容」比例最高(偏自由派用戶可以看見約 45% 的偏保守派內容,而偏保守派用戶可以看見約 40% 的偏自由派文章);如果考量用戶只能看見自己所有臉書朋友的分享內容(「潛在」情況),偏自由派用戶看見的偏保守內容下降為 24%,而偏保守派用戶可以看見約 35% 的偏自由派文章。這也表示,偏自由派用戶其臉書好友中,只有 24% 會分享對立立場(偏保守派)的文章,而偏保守派用戶的臉書朋友中,有較高比例(35% )會分享偏自由派立場的文章。
  • 該研究也分析四種情況轉變時,用戶看到「交叉內容」機率的變化:臉書機制對於自由派立場民眾的影響(8%)比對於保守派民眾的影響(5%)來得大;而個人點擊選擇對於保守派立場民眾的影響(17%),則比對於自由派民眾的影響(6%)來得大。

FS15

  •  該研究也證實文章在動態牆的排序,確實會影響文章被用戶點擊的機率。排序在臉書動態牆前面的文章,遠比下面的文章有更高的閱覽機會。臉書研究者也在文章中表示:「用戶在動態牆上看到文章的順序由許多因素決定,包括用戶拜訪臉書的頻率、他們和特定朋友的互動頻率,以及用戶過去多常點擊特定網站的連結。」

FS7

  • 整體而言,臉書用戶樣本平均只會點擊動態牆上 7% 的「硬」新聞內容。

該研究指出,和社會普遍對網路民眾「只會和意識形態相近者互動」的想像不同,研究結果證實民眾不是只會接觸到和自己立場相近的文章,社群媒體(臉書)還是會讓民眾閱讀到部分政治不同立場的新聞文章。研究也表示,「或許不意外地,我們的社群網路組成,是限制我們在社群媒體上看見多元內容最重要的因素。」(註1)

臉書研究員們為這篇研究報告下了個總結:「最後,我們的結果確切地顯示出,在臉書上的平均狀況而言,個人選擇比起運算機制,更容易限制用戶看見挑戰個人價值觀的內容」,以及「我們的研究結果建議,要讓個人在社群媒體有暴露於對立意識形態觀點的機會,用戶個人有首要及最關鍵的掌控權。」(註2)

社會科學家們的評論

這篇文章可以說是難得的透過臉書實際數據,來回答社會學家長久以來關心的社群媒體研究課題。只是,重要的研究價值雖然並引起眾多關注,卻也引來部分學者批評。

像是密西根大學傳播學系副教授克里斯提· 桑維(Christian Sandvig)發表一篇標題為「臉書的”這不是我們的錯”研究」,抨擊臉書研究中不合理之處,以及不尋常的論述包裝。北卡羅來納大學教堂山分校資訊與圖書館學系助理教授澤奈普·  圖費克吉(Zeynep Tufekci)也在網誌中寫道「我讀過很多學術研究文章,通常作者都會想方設法地突顯重要發現。然而(臉書的)這篇研究,卻盡可能地透過迂迴的言語和不相關的比較,來隱藏研究發現」。而「過濾氣泡現象」提出者伊萊·帕李澤(Eli Praiser)也立即對這篇研究做出回應,雖然用詞相較之下和緩許多,但是文中仍點出不少該研究不足之處。[4]

為什麼臉書的研究文章會讓學者們產生這些批判呢?最重要的關鍵問題在於,研究最後總結表示「個人選擇」比起臉書的「運算機制」,更應該為臉書上的「過濾氣泡現象」和「回聲室效應」來負責。

FS18

學者們表示這樣的說法並不恰當,原因包括:

  • 伊萊·帕李澤表示,雖然研究證實用戶的「臉書社群組成」和「個人點擊」,都會降低用戶看到內容的多元性,但是臉書選擇強調這兩者比起「運算機制」扮演更重要的角色,似乎有些言過其實。他強調如果「臉書運算機制」的影響,和「社群組成」以及「個人點擊選擇」的個別影響相似,其實就已經是個嚴重問題。
  • 此外,如果比較臉書用戶在不同情況下看到「交叉內容」的機率,對於立場偏保守派的民眾而言,「運算機制」(5%)的確比起「用戶選擇」(17%)的影響來得低,但是對於立場偏自由派的民眾而言,「運算機制」(8%)比起「用戶選擇」(6%)的影響來得高。因此臉書研究的總結並未真實反映結果。
  • 學者們都指出,其實將「個人選擇」與「運算機制」做比較是非常不恰當且不合理的,因為兩者同時發生且存在明顯的回饋循環(feedback loop)關係。用戶個人做出的點擊選擇是基於臉書篩選後的結果,而臉書篩選的演算法則又是以用戶臉書使用紀錄為基準。更恰當的研究結果描述應該是,「個人選擇」和「運算機制」都會加強用戶的同質化資訊吸收。
  • 澤奈普·  圖費克吉認為,早在網路普及之前,學者們就開始針對個人會透過選擇性暴露(selective exposure)來挑選立場一致的言論及避免相左立場觀點的現象,進行深入研究。但是臉書運算機制會造成資訊選擇單一化的現象,卻是很重要的新發現,也不該被忽略。且「個人選擇」與「運算機制」間更適合的描述應該是加成而非比較關係,而學者們也應該著重於此加成關係的深遠影響。

此外,學者們表示研究員在結論中指出這些結果反映臉書上的「常態」,卻忽略此篇「研究樣本的特殊性」。在個人檔案上註明政治立場的樣本條件並不尋常,這些用戶相較一般臉書觀眾,可能政治意識形態特別強烈鮮明,或是對政治特別熱衷且積極。這些樣本的特殊性也解釋為什麼此篇研究最後樣本數,只佔所有臉書用戶的極小比例。

而學者們也點出其他的潛在研究限制,包括「硬」新聞連結的政治立場,是由文章分享者的立場,而不是依據文章來源的政黨傾向,或文章內容分析來決定(不過研究發現,此種計算方式得到的結果,很接近大眾平常對這些新聞媒體的政治立場認知),以及臉書「運算機制」隨時都在改變的特性(延伸閱讀:臉書更改運算機制?掌握 5 個核心法則加上 15 個 Dos and Don’ts),也會降低該篇研究結果的通則性。臉書研究員在文章中也表示,他們對於接觸和點擊文章的定義並不完善,像是有些文章的重要結論已經摘要在動態牆上,用戶並不需要透過點擊就可以看見。

延伸想想:臉書研究的一堂課

當然,臉書願意進行研究並且公開分享成果的行為是值得鼓勵的,無論對於研究者、廣告商還是一般大眾來說,這些內部研究發現都可說是非常珍貴且重要,許多學者和廣告商們長久的疑問和猜測,也終於透過臉書的內部研究解開了部分謎團。

像是研究指出,對於少數會表明政治立場的臉書用戶,除了個人選擇(「好友組成」和「連結點擊」)外,臉書「運算機制」也被證實在某種程度上,會些微地降低用戶閱覽新聞的多樣性。平均來說,這些臉書用戶只會點閱臉書牆上不到一成的「硬」新聞(也就是超過九成的硬新聞連結都不會被用戶點擊),而政治立場越鮮明甚至極端的文章,被用戶分享的機率也更高。此外,動態牆上的新聞排列順序,也被證明確實會影響點閱機率且差異極大。

雖然臉書的研究成果提供非常多重要發現,只是,當商業公司提出學術發表時,也會被用更嚴格的眼光來審視,這也是為什麼學者們會提出諸多個人觀察和批判,希望幫助民眾更正確且深入地去解釋研究結果。

最後也不妨思考看看,是不是真的如臉書在研究最後總結,用戶個人(而非運算機制)該為臉書「過濾氣泡」現象負首要責任呢?

註1:Perhaps unsurprisingly, we show that the composition of our social networks is the most important factor limiting the mix of content encountered in social media.

註2:Finally, we conclusively establish that on average in the context of Facebook, individual choices more than algorithms limit exposure to attitude-challenging content… Our work suggests that the power to expose oneself to perspectives from the other side in social media lies first and foremost with individuals. (請參考文章最後一段的首句與末句)

 

 

延伸閱讀:臉書新聞平台預計在本月登場,臉書和新聞出版商誰是贏家?

原文出處:轉載自合作媒體 新媒體世代

 

 

嚴禁抄襲,若欲轉載,敬請註明出處「SmartM」並附上原文連結。
歡迎各大媒體交換文章連結。
圖片來源:主圖、縮圖: 新媒體世代
加入SmartM粉絲團,更多電商訊息等你關注 https://www.facebook.com/smartm.tw

 

【超過300本影音說書陪你成就更好的自己】讓大大學院與你共讀,幫助「沒時間讀書」、「讀書速度很慢」、「讀完就忘記」、「抓不到重點」的你,利用18分鐘領略閱讀的樂趣,吸收並帶走鮮明觀點,真正讓知識內涵融會於日常生活。立即點擊加入
大大讀書|全台最大線上影音說書
本網站內容未經允許,不得轉載。歡迎來信投稿、洽談文章授權。

關注職場最新趨勢,為知識學習創造最佳環境

大大學院「全台最大影音說書.知識學習平台」,致力於推廣終生學習、培養職場人士的閱讀習慣。

按讚、追蹤「大大學院」Facebook粉絲團,每天更新最新職場趨勢文章,帶你掌握關鍵資訊。

加入「大大學院|職場趨勢新觀點」,最新、最實用的職場課程都在這,學習資訊不漏接!請用手機點擊「加入Line好友」連結,或是掃描QR Code加入。

處理中