無料のメールマガジンに登録

平日17時にBusiness Insider Japanのメルマガをお届け。利用規約を確認


巨大IT企業は「倫理的な責任」追及から逃れられない…「忖度しない分析チーム」こそが必要だ

写真

REUTERS

こんにちは。パロアルトインサイトCEO・AIビジネスデザイナーの石角友愛です。

グーグルのAI開発における倫理性などを研究し、提言にまとめることが目的の「Ethical Artificial Intelligence Team(倫理的AIチーム、EAIT)」 の共同リードだったコンピューターサイエンティストのティムニット・ゲブル(Timnit Gebru、本人のTwitter公式アカウントはこちら)氏が、2020年12月に突然グーグルから解雇された——というのは1年前の年末にTech業界で話題になったニュースでした(もっとも、グーグルはゲブル氏が自主退職したと主張しており、両者の意見は一致していません)。

そのゲブル氏が、1年経った2021年12月にイギリスの大手メディアであるガーディアンで「For truly ethical AI, its research must be independent from big tech(真に倫理的なAI開発のためには、ビッグテックから独立して研究しなければならない)」という題の寄稿文を発表しました。

寄稿文の中には、彼女が突然グーグルから解雇された理由や、解雇後の2021年にビッグテック企業に対する内部告発が増えたことなどが描かれています。特に、メタ(旧フェイスブック)傘下のインスタグラムに関する調査で、インスタグラムの使用が10代の女性の精神面に良い影響を与えないことを認識しながらも、何も対処せずにユーザー数増加と利益追求に注力し続けていた問題行為などを内部告発したフランシス・ホーゲン氏(Frances Haugen)の米議会での証言を「最も注目を浴びた」と評価しました。

以下は、彼女の文章の一部を抜粋・意訳したものです。

「現在、イノベーションを阻害する元凶となっているのは、少数の人々が作った有害なテクノロジーの被害を防ぐために、他の人々が絶えず働かなければならないことで、彼ら自身が望む未来を実現するための時間や空間、資源が犠牲になってしまっているという悪しき構造に他なりません。

私たちは、一握りの巨大IT企業や、その企業と関係性が深い特定の名門大学が持つ絶対的な権力に代わる、独立したAI研究機関を運営するために、政府からの独立した財政支援を必要としています。

世界中のほんの一部の大企業だけが優遇される現状のインセンティブ構造を変えて初めて、利益よりも一般市民の幸福に重きを置いた真に倫理的なテクノロジーを世に送り出すことができるのです」

グーグルが解雇したゲブル氏のAI研究とは

写真

REUTERS/Mike Blake/File Photo

そもそもゲブル氏がグーグル在籍時代に進めていた研究はどんなものだったのでしょうか?

解雇問題の発端となった研究は、2019年に始まりました。MITテクノロジーレビューの調査によると、ゲブル氏が発表した「確率変数のオウムの危険性について:言語モデルは大きくなり過ぎる可能性があるのか?(On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?)」と題した論文では、「膨大な量のテキストデータで、大規模な言語モデルを学習させることで生じうるさまざまなリスク」について警鐘を鳴らしています。

例えば、AIのバイアス(偏向)に関するリスクについては、

「言語モデルの訓練過程において、研究者はインターネットなどからできる限り大量のテキストデータを集めようとするため、学習データにネット上の人種差別や性差別、その他罵詈雑言が組み込まれ、バイアスを持ったAIができあがってしまうリスクがある

とした上で、「そういった状況にもかかわらず、開発者の間でこれらのリスクを軽減するための十分な検討がなされてきただろうか?」といった疑問を投げかけています。

ゲブル氏解雇後の世間の反応を見ると、1400人以上のグーグル社員の署名や、その他1900人の支援者の署名などが集まるなど、彼女の解雇が多くの反発を生んだことがうかがえます。アルファベットCEOのサンダー・ピチャイ氏は、会社として間違った行為などは認めていないものの、ゲブル氏に対して社員宛てのメールの中で正式謝罪をしました

巨大IT企業が追及を受ける「倫理的責任」

写真

メタ社(旧フェイスブック)のマーク・ザッカーバーグCEO。

REUTERS/Erin Scott

現在のアメリカでは、巨大IT企業に対する倫理的責任の追及が加速しています。

インターネットや今後の大きなフロンティアと言われているメタバースなどの大きな市場、巨大IT企業は、OSやプラットフォーマーといった立ち位置を維持しようと、力とデータを蓄え続けて成長してきました。今後、どのように倫理性を担保すればよいのでしょうか。

倫理性を担保する鍵は、社内で「忖度なしの独立したデータ分析」ができる体制を構築することにあると言えます。

例えば、メタ社では2021年にRAI(Responsible AI、責任あるAI)チームをAI事業の中に作りました。RAIとは、過去数年間アメリカのAI関連の業界で話題になっている言葉です。

これまでは、説明可能なAI(XAI=Explainable AI)を作るということがAIの倫理性を担保する上での基準とされてきました。が、最近では、AIを使用する組織や開発する人たちへの責任感をより強く持たせるために、RAIへシフトする動きが目立ちます。例えば、アメリカ国防省でもRAIのガイドラインを発表しています。メタも、同じようにXAIからRAIへシフトしていると言えるのかもしれません。

ここで、Organimi社より公開されているメタになる前のフェイスブック(2021年3月時点)の組織体制図をご紹介します。この組織体制図によると、CEOのマーク・ザッカーバーグ氏の下にCTOがいます。そして、そのCTOが管理している事業の一つがAI事業です。このことから、会社の事業としてAIが重要な位置付けにあることがうかがえます。RAIは、そのAI事業の中に、横断的なチームとして設立されたと公式ブログに書かれています。

公式サイトによると、このRAIチームは「FacebookにおけるAIが人々と社会に利益をもたらすものにする」という命題を掲げ、外部の専門家や規制当局と定期的に協議・協力しながら、機械学習(ML)システムの責任ある設計と、使用を担保するためのアプローチを構築し、テストしているそうです。

また、RAIの5つの柱として、以下のものが挙げられています。

  1. プライバシーとセキュリティ(ユーザー情報の収集や解析に関して、プロダクト横断的にプライバシーレビューを行う)
  2. 公平性とインクルージョン(AIモデルや学習データのラベルに関するバイアスがないかどうかをプロセス実装により検知するFairness Flowの構築)
  3. ロバスト性※と安全性(AIの敵対的攻撃を察知し安全性を担保するための、AI red teamを作り、プロダクト横断的に検知する取り組み。同時に、マイクロソフト、大学などと連携しディープフェイクを検知するコンペティションを実施。業界全体で底上げをするためのイニシアチブの計画や運営)
  4. 透明性とコントロール(ニュースフィードの検索結果のランクを決めるアルゴリズムに対して、ユーザーが調整ができるようなFavorites機能の実装や、政治広告の非表示化など)
  5. アカウンタビリティとガバナンス(四半期に1回Community Standards Enforcement Reportを発表し、フェイスブックやインスタグラムが責任あるAI実現に向けてどれくらい効果を出したかを調査して発表する取り組みなど)

※外乱の影響を受けづらいかどうかの性質のこと

「倫理的なAI」という枠組みで企業や政府、市民団体などの取り組みを議論する際に、上記のような細分化したテーマや柱を明確にすることは、重要なポイントです。なお、メタの5つのRAIの柱は、ハーバード大学が提唱する倫理的AIの原則で紹介されているテーマに沿って作られたということで、その内容をほぼ網羅する形で設定されていることが分かります。

画像

ハーバード大学による倫理的AIの原則に基づいた各国政府や各企業、各団体の倫理的AIの取り組みに関する発表資料の内容を評価したもの。民間企業の中にはGAFAや中国IT企業も含まれ、評価対象となっている(タップすると拡大します)。

出典:Harvard University

「責任あるAI」企業に必要な組織体制とは

マーク・ザッカーバーグCEOの写真

Tobias Hase/picture alliance via Getty Images

また、5つの柱の中でも特に、メタやインスタグラムが、企業としてRAI推進のために機能しているかどうかをチェックする目的で公表しているという「Community Standards Enforcement Report」は非常に興味深い内容です。

最新のレポートを読んでいると、以下のカテゴリーに代表される、11種類の問題コンテンツを5つのメトリクスで効果検証しています。

メタが定義づける問題カテゴリー例

・アダルトコンテンツ

・いじめやハラスメントコンテンツ

・子どもの危険に関するコンテンツ

・テロリスト団体などの危険組織コンテンツ

・ヘイトスピーチ

・自殺、自傷行為関連コンテンツ

・暴力コンテンツ

ほか、計11種類

責任あるAIプロジェクトの効果検証をするための5つのメトリクス

  1. 発生率(全コンテンツの何%が問題コンテンツに相当するのか)
  2. 対処コンテンツ数(投稿、写真、アカウントなどで問題コンテンツに関してメタが対応をしたコンテンツの数)
  3. プロアクティブ率(問題コンテンツのうち、ユーザーからのフラグより先にメタ側がAIを使って検知できた割合)
  4. 申し立て数(メタが削除などのアクションをとったコンテンツのうち、ユーザーから再検討するように申し立てがあった数)
  5. 復元数(申し立てによりコンテンツを戻した数や、その他の理由で復元されたコンテンツの数)

AI企業には「経営陣に忖度せず、ありのままを見せる」分析チームが必要

画像

いじめ関連コンテンツ検知のプロアクティブ率の推移。AI導入と精度向上が進み、検知が難しいとされているいじめなどの、ニュアンスを含む解釈が求められる問題コンテンツもユーザーより先に摘出できるようになっている。濃い青がメタによる検知、薄い青がユーザーによる検知。

ここから分かることは、社内で関連データをKPIとして定義付けし、収集し、抽出し、分析し、可視化して、レポートという形にまとめて提言にする分析チームの重要性です。

実際、メタの責任あるAIに関するメトリクスも、いろいろな角度から検証されていることが分かります。そして、このような取り組みを行う際に私が特に大切だと思うのは、たとえ経営陣が期待している内容ではなかったとしても、ありのままの分析結果を伝えられる体制を企業が整えるということです。

例えば、提言をまとめる過程において、各事業部から特定のデータ分析結果に対する期待値や圧力などをかけられる可能性があるといったことも想定されます。しかし、そのような社内の軋轢にも耐えることができる、独立した組織体制を維持する必要があります。同時に、経営陣はその重要性を理解し、分析チームを守る必要があると考えます。

今後、説明可能なAIから、責任あるAIへシフトする国や企業が増えることが予想されます。その際には、倫理性を評価する軸を具体的に定義付けながら、常にモニタリングを行い、社内でのガバナンスを徹底するために必要な体制を作っていくことが重要だと言えるでしょう。

(文・石角友愛


石角友愛:2010年にハーバードビジネススクールでMBAを取得したのち、グーグル本社で多数のAI関連プロジェクトをシニアストラテジストとしてリード。その後HRテック・流通系AIベンチャーを経て、パロアルトインサイトをシリコンバレーで起業。順天堂大学大学院医学研究科データサイエンス学科客員教授(AI企業戦略)及び東京大学工学部アドバイザリー・ボードを務めるなど幅広く活動している。著書に『いまこそ知りたいDX戦略』、『いまこそ知りたいAIビジネス』(ディスカヴァー・トゥエンティワン)、『経験ゼロから始めるAI時代の新キャリアデザイン』(KADOKAWA)、『才能の見つけ方 天才の育て方』(文藝春秋)などがある。

  • Twitter
  • Facebook
  • LINE
  • LinkedIn
  • クリップボードにコピー
  • ×
  • …

Popular

あわせて読みたい

BUSINESS INSIDER JAPAN PRESS RELEASE - 取材の依頼などはこちらから送付して下さい

広告のお問い合わせ・媒体資料のお申し込み