驚き:フェイスブックはフェイスブックがニュースを大丈夫だと言っている!

先週、ジャーナルに研究が発表されました 理科 これは、Facebookのアルゴリズムが架空の「フィルターバブル」の原因ではないことを示しています。この場合、人々は、ソーシャルネットワークへの政治的傾向に沿ったニュース記事のみを表示します。

唯一の問題?これは、Facebookに雇用されている人々が実施したFacebookの調査です。

Facebookの研究者が自社の人々のニュースフィードの操作による影響を最小限に抑えたことに本当に驚かなければなりませんか?

研究、 イデオロギー的に多様なニュースやFacebookでの意見への露出、FacebookのEytan Bakshyと同僚たちが先週出版した 理科。この研究はどのように権威あるジャーナルに掲載されますか 理科?1ピアレビューは、企業がデータの表示を望んでいることを実証するだけの企業が発行した自己奉仕調査をキャッチすることを想定していませんか?

ピアレビュアーが公開されたこの研究にどのように合格したのか不思議に思わなければなりません。この研究の多くの批評はすでに発表されているので、他の人が引用した問題について簡単にまとめておきます。 Christian Sandvigによるこの批評は、Facebookの研究者が発表された研究で独自の調査結果をどのように紡いだかに関する問題をかなり要約しています。

比較の対象について、研究はさらに次のように述べています:

「アルゴリズムよりも個人の選択が態度に挑戦するコンテンツへの露出を制限することを最終的に確立します。」

「アルゴリズムによるランキングと比較して、消費するものについての個人の選択の方が効果が高かった」

警報ベルが鳴っています。たばこ産業はかつて、喫煙は炭鉱よりも危険性が低いという研究に資金を提供した可能性がありますが、ここでは炭鉱労働者の喫煙についての研究があります。おそらく彼らが炭鉱にいる間。

私が言いたいのは、「ユーザーの選択」と「アルゴリズム」がトレードオフできるシナリオはないということです。なぜなら、それらは一緒に発生するためです[…]。ユーザーは、アルゴリズムが既にフィルタリングしたものから選択します。シーケンスです。

これら2つのことについての適切な説明は、どちらも悪いことです。どちらも分極化と選択性を向上させます。上で述べたように、アルゴリズムはユーザーの選択性を適度に高めるように見えます。

実際、あなたは、Facebookで働いているFacebookの研究者が、アルゴリズムをいじってユーザーの行動から切り離すことができないことを理解していると思います。アルゴリズムを操作しないと(Facebookの調査でAdam Kramerが最初にユーザーのインフォームドコンセントを得ずに行うことは適切ではないことを発見しました)、ユーザーが他の何かよりも1つのものをクリックする理由を実際に言うことはできません。

しかし、ノースカロライナ大学のチャペルヒル教授であるZeynep TufekciによるFacebook調査のこのレビューは、調査のデータが実際に見つけたものは調査の付録に埋め込まれていると書いています。

リンクが高いほど、クリックされる可能性が高くなります。ニュースフィードアルゴリズムによって決定された、配置ごとに生きて死ぬ。 (効果は、ショーンJ.テイラーが正しく指摘しているように、配置と、アルゴリズムが希望するものを推測しているという事実の組み合わせです)。

これは主にすでに知られていますが、Facebookの研究者によって確認されたことは素晴らしいことです(この研究はFacebookの従業員のみが作成したものです)。 […]

1つの新しい発見は、ニュースフィードアルゴリズムが(適度に)多様なコンテンツを抑制することであり、もう1つの重要かつ新しい発見は、フィード内の配置が(強く)クリック率に影響することです。

Facebookはあなたが読む可能性が高いニュースを表示しています(それはあなたの政治的見解と一致しているため)。ニュースフィードに表示される位置が高いほど、それをクリックする可能性が高くなります。

言い換えれば、Facebookによるニュースフィードの操作は、クリックする可能性のあるものを決定する上で、重要な貢献要因であり続けます。そして、彼らはそのフィードを操作して、アルゴリズムに偏りがない場合よりも政治的に調整されたニュース記事を表示し続けます。

そして、Tufekciが重要なことを指摘しているように、これは調査されたFacebookユーザーの小さな選択グループでした。これは、Facebookの研究者がそれらを調査することがより便利(かつ安価)だったからです。彼らは、Facebookで自分の所属政党を自己識別し、定期的にサービスにログオンしているユーザーのみを見ました(Facebookユーザー全体の約4%[Facebookで所属政党を宣言しているユーザーはわずか9%であり、これは一般化できるサンプルではありません)何かから)。 Facebookでの政治的所属を宣言していないFacebookユーザーについては何も言われていません。これが私たちのほとんどです。

Facebookはより強力な調査を実施できたでしょうか?もちろん、サイトでの調査募集と、ランダムなオフサイトでの電子メール募集を組み合わせるなど、より伝統的な調査手法が必要になります。

したがって、Facebookの研究者がニュースフィードに表示されているものは彼らのせいではないと言うためにスピンしたように見えるデータ(Tufekciの好意による)からのフィルタリングされていない公平な発見です:

Facebookの研究者は、Facebookのニュースフィードアルゴリズムによって、Facebookのソーシャルネットワークから人々が見るイデオロギー的に多様で横断的なコンテンツが測定可能な量だけ減少することを決定的に示しています。研究者は、Facebookのアルゴリズムによって、自己識別されたリベラル派では8%、自己識別された保守派では5%、多様なコンテンツへの露出が抑制されていると報告しています。

または、Christian Sandvigが述べているように、「アルゴリズムは、自己識別された保守派が見る20分の1の横切りハードニュースストーリー(または5%)と、自己識別されたリベラルな13分の1の横切りハードニュースストーリーを除外します。見る(8%)。」アルゴリズムで表示されないため、友達が共有することに同意できないニュース項目が少なくなっています。

残念ながら、 ニューヨーク・タイムズ そして、いくつかの他のアウトレットを選んで、ほとんどの主流のニュースメディアサイトは、Facebookの研究者が彼らの研究で主張したことを、疑いなく報告しました。

しかし、あなたは真実を知っています— Facebookは代表的ではない小さなサンプルを調査し、彼らのデータが実際に示したものを軽視して、会社に対してより肯定的な結果を強調しました。私にとって、これはFacebookの研究者が科学研究のポイントを実際に理解していない別の例です。偏見や操作のない世界と知識を共有するためです。

さらに読むために…

Zeynep Tufekci:Facebookのアルゴリズムがコンテンツの多様性を抑制する方法(適度に)、およびニュースフィードがクリック数を決定する方法

クリスチャンサンドヴィグ:Facebookの「それは私たちのせいではない」調査

NY Times:Facebookは偏光を使用していますか?サイトは異なるように頼む

脚注:

  1. 悲しいことに、私は今、さらなる精査を必要とする尊敬される科学出版物のリストに別のジャーナルを追加する必要があります。 World of Psychologyの長い読者は知っているように、そのリストは毎年長くなります。 小児科 (小児科は、基本的な研究の因果関係に精通している誰もが明らかにレビューしていないテクノロジーに関する研究を発表しています。)、 サイバー心理学、行動、ソーシャルネットワーキング (サイバー心理学は、その品質に関係なく、インターネット中毒またはソーシャルネットワーキングに関する研究を明らかに公開しています。)そして今、 理科. [↩]

!-- GDPR -->