判別AIも出てきた米国・フェイクニュース研究最前線 —— ただ「フェイク」と呼ぶ時代は終わる

shutterstock_730670644

Shutterstock

パロアルトインサイトCEO・AIビジネスデザイナーの石角友愛です。今回紹介するのは、「アメリカのトップIT企業がどのようにフェイクニュース規制に取り組んでいるか」です。

2018年の沖縄県知事選挙で、フェイクニュースを見た学生がアンケート回答者全体の1割ほどいたというニュースが日本でも先日流れ、今年はより一層、日本でも「フェイクニュースとはなんなのか?どう私たちは向き合えばよいのか?」が問われる年になるのではないでしょうか。

フェイクニュースに関して話すときに一番難しいのが、何をもって「フェイク」とみなすのかの定義づけです。First Draft Newsという非営利プロジェクトの代表のクレア・ワードル博士によると、自分にとって都合の悪い情報を全て「フェイクニュース」と一括りにしてしまっている使用例も背景にあり、「フェイクニュース」という言葉は使わずに、以下の3つに分類されるべきだと言います。

  1. Mis-information(ミスインフォメーション。悪い意図がなく拡散する偽りの情報)
  2. Dis-Information (ディスインフォメーション。悪い意図があり意図的に拡散される偽りの情報)
  3. Mal-Information(マルインフォメーション。悪い意図があり意図的に拡散される真の情報)

例えば、フェイクニュースの拡散で批判の対象になっているFacebookでは「フェイクニュース」ではなく「フォルスニュース(False News、偽りのニュース)」という言葉を使い、あらゆるシグナルからフォルスニュースと判断されるニュースを拡散するサイトの広告を止めています。その検知にかなりの人的資源と機械学習の労力を投じているとのことです(担当チームを2倍に拡大したとのこと)。

Facebookでは以下のようなマトリックスを作り、それぞれの線引きが難しいものの、赤い箇所(False News)の摘出にまずは全力を注ぐ、と言っています。

False News

月間アクティブユーザー数が20億人を超えるため、全ての情報1つずつをカテゴライズするのは不可能です。そのため機械学習アルゴリズムを開発し、パターン検知をしています。そして、何をもって偽りと判断するかの基準には、第三者専門機関のチェック、ユーザーからのフィードバックなども使い、複合的な判断をしています。それでもなお、次から次に出てくる「偽り」の検知にはなかなか追いつかない、いたちごっこのような状態になってしまうことも考えられます。

そこでFacebookとは違うアプローチを採っているのがウーバーです。ウーバーの最先端技術研究チームの研究員の一人であるマイク・タミアー博士はバークレー大学でデータサイエンスを教えている講師でもありますが、マイク氏は面白い視点でフェイクニュースを定義付けています。

マイク氏によると、「何が偽りかどうか」より、「感情を無駄に引き起こす言葉が入っているかどうか」で、ジャーナリズムとセンセーショナリズム(扇動主義)の線引きをした、ということです。心理学の研究で、「感情的になればなるほど、人は認知力が反比例して下がってしまう」というものがあり、そこから、無駄に読者の感情を駆り立てる記事は、ジャーナリズムではなくセンセーショナリズムだと定義づけをした、とあるセミナーでマイク氏が語っていました。

研究の一環としてマイク氏が率いるウーバーチームが開発したFakerFact.Orgというツールでは、自分がチェックしたいニュースのURLを貼り付けると数秒で「Walt」という名前のAIモデルが、ニュース記事を以下の分類に分けてくれます。

  1. ジャーナリズム(ファクトベースのニュース)
  2. オピニオン(著者の意見)
  3. Wiki
  4. センセーショナリズム(扇動的に読者の感情を必要以上に換気させるもの)
  5. アジェンダドリブン(何かしらの目的があって書かれた記事)
  6. 風刺

試しに弊社の日本語のブログ記事のURLを入れてみたのですが、やはり日本語対応は全くしていませんでした。そこでCNNで1月7日に掲載されていた「女優のエマストーンがゴールデングローブ賞で“ごめんなさい”と言った」というニュースをWaltで分類分けしてみたところ、ファクトを伝えるよりも、何かの意図があり扇動することが目的の記事に分類されます、という結果が出ました。なぜかの理由も記載されており、例えば、「詳しく見る」が入っているから、「I’M SORRY!と大文字で記載されているから」などと説明しています。

fakerfact

CNNの「女優のエマストーンがゴールデングローブ賞で“ごめんなさい”と言った」というニュースを分類分けしてみたところ。

一方、ニューヨーカーの記者によるトランプ大統領のメキシコ国境についての記事で試したところ、「読者の関心を引くとは思うがオピニオンなので事実を知りたいだけなら他の記事の方がよい」とWaltが分類しました。

donaldtrump

こちらは、「トランプ大統領のメキシコ国境についての記事」で試したもの。当然ながら、分析結果はまったく違う。

このFakerFactツール、誰がどんな使用用途で活用するかはユーザーが今後決めていくことだと思いますが、AI開発をしている立場からすると、とても面白いツールだと思います。

Kaggle(企業などから課題を募集し、解決することで能力を競うエンジニアコミュニティー)で公開されているオープンソースのデータセットを使い、分類器(入力されたデータを目的に合わせて分類するAIアルゴリズムのこと)を作っていたということで、具体的にどのようにAIモデルを作ったか興味がある方は、こちらのビデオが参考になります。

ちなみに自然言語処理の世界では、風刺や皮肉表現は言葉の一般的な意味と文脈上の意味が真逆になるため、非常に検知が難しいとされています。FakerFactでは風刺もちゃんと見抜いているようで、たくさんの風刺、皮肉記事を教師データとして使ったのだと考えられます。

アメリカのメディア業界は、広告収入からサブスクリプション収入にシフトしてきています。例えば米アトランティック誌によると、ニューヨークタイムズ社の収入は、過去何十年かで6割が広告収入と言う状況から、6割が読者からの購読料へと変わりました。そんな中で、広告主の立場を意識した中立的なファクトベースの記事から、読者が好む記者の視点重視の記事に今後移行するのではないか、と話題になっています。

だからといって事実を伝えることの意味がなくなるわけでは全くなくて、事実を伝えるジャーナリズムと視点重視のオピニオン、そしてセンセーショナリズムや風刺など、今後ニュースジャンルが細分化していき、読者がそれぞれのカテゴリーでの情報収集を意識的に、能動的に、必要であればお金を払って行なっていく、ということが予想されると言えます。

それゆえに、AIを活用したニュースの分類分けやフェイクニュースの検知が今後より重要になってくるのではないでしょうか。

(文・石角友愛)


石角友愛/Tomoe Ishizumi:2010年にハーバード経営大学院でMBAを取得したのち、シリコンバレーのグーグル本社で多数のAIプロジェクトをリードし、AIを活用した職業マッチングサイトのJobArriveを起業。2016年に同社を売却し、流通系AIベンチャーを経て2017年にPalo Alto Insightを起業。

Popular

あわせて読みたい

BUSINESS INSIDER JAPAN PRESS RELEASE - 取材の依頼などはこちらから送付して下さい

広告のお問い合わせ・媒体資料のお申し込み