selimaksan/Getty Images
2020年の春、大学生だった一番下の弟は、4人のルームメイトと住んでいる家でリモートの授業を受けざるを得なくなった。
オンラインで試験を受ける学生に対し、大学側はアルゴリズムによる監視技術を使うことにし、学生はノートパソコンにソフトウェアを入れることを要求された。そのソフトウェアは自動的に学生の部屋や顔、背後の動きをスキャンするものだった。
ただこのソフトウェアには大きな問題があった。背後に他の人が映ると、自動的にその学生を試験から追放し、違反行為を行った学生として通知したのだ。
ルームシェアをしている裕福でない学生たちは、他の人がいる場合は違反行為をしていると判定するこうしたしくみにより不利益を被った。また、違反行為が検出されるのは非白人の学生の方に多く見られるということもあった。こうしたシステムは学習を支援するどころか、逆に学生の精神状態に悪影響を与えていたのだ。
グーグルやカーン・アカデミーでの勤務経験も持つキャサリン・ヒックス博士は「AI倫理関連職に適切なスキルを持った人が採用されていない」と指摘する。
本人提供
弟は私に助けを求めてきた。私は、医療や教育における格差といった大きな社会問題に取り組むためにデータやAIの力を使いたいと思っている企業を対象にコンサルを行う会社を経営している。
そこで私は、弟が先生宛てにレターを書くのを手伝った。このアルゴリズムは学生の行動を誤認しており、有害だと伝えるためだ。学生たちの言い分は認められ、ソフトウェアの要件は削除されることになった。
人間はAIをどう扱うべきか
こうしたアルゴリズムによる偏見は、AIを活用したさまざまな場面で見られる。予測に基づいた取り締まりや、採用活動に使われるアルゴリズム、オピオイドを処方するにあたって全米の医師が使っている乱用リスクプログラムなどだ。
研究者たちは人間社会の大きな課題の解決にAIが貢献してくれることに期待していたが、そうはなっていないことがほとんどだ。そのため、「AI倫理」という新しい分野の仕事が生まれている。
AIの責任に関する政策の議論はまだ緒についたばかりで限定的である一方、AIが起こす問題に対する批判の声は増している。
そんななか、企業や研究機関は自分たちで担当部署をつくり、数学的なアルゴリズムやコンピューターサイエンスのインフラだけでなく、どのようにAIを使えば社会の改善やアルゴリズムの公平さ、既存の不平等を考慮したものになるのか、といったことにも取り組んでいる。
ただ、この新しい分野が伸びていくのを見ていると、懸念も感じる。AI倫理の分野が、AIの社会的インパクトを評価できる社会学的スキルよりも、コンピューターサイエンスのテクニカルなしくみを重視しているからだ。これでは、AI倫理学が解決しようとしているはずの社会の欠点を、逆にただ再生産することになってしまう。
募集要件はテクニカルスキルばかり
この1年間でAI倫理のためのデータサイエンティストや研究者を募集する企業を数百社見てきたが、ほとんどの場合、応募要件に含まれるのはデータベースの技術やプログラミングの知識、アルゴリズムなどの経験だ。
データが持つ意味や、設計されたシステムがこうしたアルゴリズムを元に推測する内容が人間にどんな影響を与えるのかを評価するためのスキルを求めている求人はかなり少ない。こういった社会学的・人文学的スキルはIT業界において軽視されることが多い。
社会学の重点は、人間の行動や正確な統計を理解し、いつ介入するのがいいのか、なぜ介入が必要なのかを評価することだ。社会学者は、データの収集方法や、集めたデータが現実を正確に表しているのかといったことを非常に気にする。また人文学は、ベネフィットやトレードオフといった難しい問題や、コミュニケーションの方法、自分自身では経験していないことを理解することを考える助けになる。
私はデータの力を信じていて、独学でコーディングを学び、企業が持っているデータを分析するためのアルゴリズムのモデルを組むことも多い。ただ、私はこの分野に入る前は社会学者だったから、こういった社会学的スキルを活用して、正しいデータを正しく使っているのかという批判的思考をよく行っている。
IT業界はプログラミングのスキルを「テクニカル」スキルとみなし、このスキルを基準に社員を分けてきた。
限られた視点でのシステム構築は危うい
しかしどのスキルが「テクニカル」とみなされ、どの人たちがテクニカルと認識されるのか、といったことには常に変化してきた。これはコンピューティングの歴史にも表れており、 プログラミングの仕事は男性に向いているとコンピューティング分野で考えられるようになるまでは、プログラミングは女性らしいスキルだと思われていた過去がある。
このような、「システム構築が得意なのは誰か」にまつわる偏見に基づく考え方は、誰に対しても効果的に機能するテクノロジーを構築するには大きな障壁となる。偏ったデータを入れればアルゴリズムは格差を助長するのと同様、複雑な技術を限られた視点だけで設計すれば雇用格差を強化してしまう。
その点、AI倫理学には新しいアプローチをとれる可能性がある。プログラミング言語以外のスキルがシステムにどう貢献するのかを学ぶこともできるし、解決しようとしている問題を実際に体験した人たちが語る場を設けることも可能だ。AIが人間の幸福に与えるインパクトを評価し理解することもできる。
こうした仕組みづくりには多様な視点が欠かせない。採用活動もその第一歩になる。AI倫理が何を達成できるかは、どんな人をAI倫理の分野に入れるかによって決まってくるだろう。
(翻訳・田原真梨子、編集・常盤亜由子)