Facebook のようなオンラインソーシャルネットワークではユーザーを囲うように「フィルターバ ブル」が作成されることで、ユ ーザーは単に見たい情報を見ているだけか。 Eytan Bakshy らは 1,000 万以上の Facebook ユーザーの行動を分析した。その結果、 Facebook では実際にそのユーザ ー向けに内容にフィルターがかかるとはいえ、最も強力な検閲はユーザー自身が行っていること を発見した。 Bakshy らによると、各ユーザーは何をクリックするか(そして何をクリックしな いか)を選択することで、 Facebook のアルゴリズム以上に、自身の意見に相反する考えや見方に 接する機会を限定していたという。ユーザーが好むと思われる内容を予測し て提示しようとする Facebook のソーシャルアルゴリズムは、それによって人々が相容れない考え方に目を向けないよ うになるのであれば、民主主義にとって有害になる可能性がある。また、ニュースや地域情報を 収集する際のソーシャルメディアへの依存が一層高まっていることから、そういったパーソナイズされたウェブサイトやウェブブラウザーが、従来のメディアソースと比べ、ユーザーの世界 観をどのように形成するかを把握することは重要である。 Bakshy らは Facebook 上で自身の政治 的選好を公開している米国の Facebook ユ ーザーを調査した。ユーザーが友人らに向けてオンラ イン上に掲載する情報‐リベラル派か保守派かに注目する‐を検討してから、そのユーザーの友 人らが掲載するどういった種類の情報が実際に Facebook のソーシャルアルゴリズムを通してユ ーザーに届くかを突き止めた。また、ユーザーが最終的にクリックして読む内容も分析した。そ れらから、 Facebook ではユーザーの信念に反すると思われる約 15 %の情報がフィルターされ、 ユーザーも Facebook が実際に提示した種々の思考を促す投稿の約 70 %について無視を選択する ことが結果と して示された。したがって、 Bakshy らは Facebook のようなソーシャルメディアネ ットワークは引き続いて研究する必要があると主張すると同時に、自身の意見や考えに疑問を持 つ鍵を握っているのはユーザー自身であること、そして、 Facebook はおそらく大半のブログやニ ュースサイト以上にイデオロギー的に相反する考えをユーザーに提示していると述べている。 Perspective では David Lazer がこれらの研究結果についてより詳しく説明し、「ソーシャルアル ゴリズムの隆盛」に専念して研究すべき新しい分野の必要性 に注目している。
Article #21: "Exposure to Ideologically Diverse News and Opinion on Facebook," by E. Bakshy; S. Messing; L. Adamic at Facebook in Menlo Park, CA; L. Adamic at University of Michigan in Ann Arbor, MI.
Journal
Science