Facebookはいかにしてフェイクニュースと戦うべきか:フェイクニュースの発信者から利益を得る方法

次の記事

VCはダイバーシティーとインクルージョンを諦めるのか

(日本語版注:本稿は、Amber Caseによって執筆された。Amber CaseはGeoloqiの元CEOであり、SXSWiとTEDでは基調演説を行った。著書には「Calm Technology: Designing for Billions of Devices and the Internet of Things」(O’Reilly Media)がある。現在はハーバード大学のBerkman Center for Internet and Societyのフェローを務める)

 

Facebookを始めとするプラットフォームでは、今でもSNSに投稿される虚偽的な内容の怪しい「ニュース」の蔓延と戦っている。

先日、Cambridge AnalyticaとFacebookの企業対応の遅れが発覚したことで、現在進行形の、同程度に深刻な問題から人々の目がそらされてしまった。それは、Facebookをしばらく使っていると、かならず怪しスポンサー記事広告が画面に現れるというものだ。とりわけ、重大な事件が発生し、影響力を持つアメリカ国内外のネットワークがリーチを拡大しようと競い合いを始めたときに、とくに多く見られる。簡単なユーザーアンケートによってこの危機に対処するという、先に発表されたFacebookの計画は、どうも信用できない。

その根底にあるのは、経済というよりは思想の問題だとよく言われる。Facebookのようなサイトは広告収益に依存しており、メディア企業はFacebookの広告を利用して自分たちのウェブサイトに人々を導き、そこで利益を得ている。こうした活動的なメディアでは、評判が良いメディアでさえ、そこから配信されるものには、クリックを促すための、本題よりも優先される暗黙の誘因が仕込まれている。

道義心の低い業者は、さらに一歩進んでいる。そう信じたいと願っている人々の感情に的を絞って、嘘とまでは行かないがいい加減な、あるいはまったくのでたらめな記事をでっち上げるのだ。事実、2016年の大統領選挙期間中に流された政治関連の嘘ニュースのほとんどは、ロシアの諜報機関が流したものではなく、政治勢力をゆがめようと偽情報をまき散らす怪しい連中の仕業だった。こうした問題の拡大は、一企業であるFacebookには大きな負担だ。ファクトチェックを行う人財を大量に雇い入れて、自らのプラットフォームで広告として掲載されている怪しい記事をすべて審査するなど、現実的ではない。

Facebookには、もっとよい、確かで、費用対効果が高い方法が使えると私は信じている。Facebookユーザーの集合的な観察力をテコにして、嘘ニュースを炙り出し、それを出した広告主の責任を追及して、そのような手口で利益を得ようという考えを改めさせるのだ。

まずは、ユーザー主体のコンテンツ審査がある。数多くのインターネット・サービスですでに採用され成功している手法だ。たとえば、ドットコム時代のデートサイト「Hot or Not」では、デートサービスを開始した時点で節度が乱れる問題にぶち当たってしまった。そこでHot or Notでは、ユーザーの節度を管理するモデレーターを多く雇用する代わりに、一部のユーザーを選び出して、アップロードした写真が不適切なもの(ポルノやスパムなど)でないかどうかを判断させることにした。

ユーザーはペアになり、写真の可否について、同意に至るまで投票を続ける。大多数のユーザーから不適切と指摘された写真は削除され、その正しい判断を下したユーザーには報償ポイントが贈られる。意見が分かれる写真のみがHot or Notの審査担当者に送られ、最終判断が下される。通常、そこへ送られる写真は、全体のほんのわずかな割合だ。

Facebookは、もっと有効に、こうしたシステムを採り入れられる立場にある。ユーザー数が格段に多く、その人たちの粒度の細かい情報を把握しているからだ。Facebookは、ユーザー層や思想の違いに基づくユーザーの小さなサブセット(数十万人規模)を簡単に選ぶことができ、コンテンツの審査を依頼できる。報酬が得られるならば、ユーザーはモデレーターとして適切に対応してくれるはずだ。

  • 真偽の怪しい記事を含むFacebook広告の問題に対して、この審査方式は次のように進められる。
  • ニュースサイトが記事や動画の広告料金をFacebookに支払う
  • Facebookは料金を第三者預託とする
  • Facebookは、その記事に信頼性があるか否かの判断をボランティアとして行う選ばれたユーザーに広告を表示する
  • その人たちの大半(60パーセント以上)が信頼できると判断すれば、その広告は自動的に配信され、Facebookは広告料を受け取る
  • 60パーセント以上の人が信頼できないと判断したものに関しては、Facebookの内部審査委員会に送られる
  • 審査委員会が信頼できると判断すれば、その広告はFacebookに掲載される審査委員会が信頼できないと判断すれば、その広告は掲載されず、Facebookは広告料金のほとんどを広告主に払い戻し、10〜20パーセントを審査手数料として受け取る

(Photo by Alberto Pezzali/NurPhoto via Getty Images)

私は、嘘ニュースの一貫性のある特定が幅広いユーザー層によって行われ、Facebookの労働時間と人件費は大幅に削減されるものと信じている。さらに、私のこのシステムを導入すれば、企業は政治的な偏見による非難から身を守ることもできる。マーク・ザッカーバーグは正直にこう言えばいい。「アレックス・ジョーンズさん、申し訳ないが、あなたの嘘ニュース広告の掲載を拒否したのは私たちではない。ユーザーたちなんですよ」と。おそらく、さらに重要なこととして、Facebookは人件費を抑えることができるだけでなく、嘘ニュースを排除することで利益を上げられるはずだ。

この戦略は、他のSNSにも採り入れることができる。とくに、TwitterとYouTubeだ。この流行病に本当の意味で打ち勝つには、Googleを代表とする主要なインターネット広告主も、同様の審査方法を採り入れるべきだろう。ユーザーの同意によるフィルター・システムのレイヤーは、個人やグループが自発的に発信し、またはボット・ネットワークによって拡散される怪しいコンテンツにも応用できる。

民主主義的制度における私たちの信頼を損なわせようと必死になる軍勢との激しい戦いの中で、この方法が唯一、私たちに勝ち目を与えてくれるものだと私は確信する。毎週のように、新しい記事の見出しが私たちの想像を超える規模で増えている。私がこの記事を書いた目的は、シリコンバレーが行動を起こさない言い訳としてよく使う言葉に反論するためだ。彼らはこう言う。「スケーラブルじゃない」と。しかしこの場合、スケールこそソーシャル・ネットワークが持つパワーなのだ。それが最大の防御力となる。

[原文へ]

(翻訳:TechCrunch Japan)