「AI倫理の採用条件はテクニカルスキルばかり」。AI研究者が訴える、技術偏重のシステム構築の危うさ

GettyImages-1308080126

selimaksan/Getty Images

2020年の春、大学生だった一番下の弟は、4人のルームメイトと住んでいる家でリモートの授業を受けざるを得なくなった。

オンラインで試験を受ける学生に対し、大学側はアルゴリズムによる監視技術を使うことにし、学生はノートパソコンにソフトウェアを入れることを要求された。そのソフトウェアは自動的に学生の部屋や顔、背後の動きをスキャンするものだった。

ただこのソフトウェアには大きな問題があった。背後に他の人が映ると、自動的にその学生を試験から追放し、違反行為を行った学生として通知したのだ。

ルームシェアをしている裕福でない学生たちは、他の人がいる場合は違反行為をしていると判定するこうしたしくみにより不利益を被った。また、違反行為が検出されるのは非白人の学生の方に多く見られるということもあった。こうしたシステムは学習を支援するどころか、逆に学生の精神状態に悪影響を与えていたのだ。

キャサリン・ヒックス

グーグルやカーン・アカデミーでの勤務経験も持つキャサリン・ヒックス博士は「AI倫理関連職に適切なスキルを持った人が採用されていない」と指摘する。

本人提供

弟は私に助けを求めてきた。私は、医療や教育における格差といった大きな社会問題に取り組むためにデータやAIの力を使いたいと思っている企業を対象にコンサルを行う会社を経営している。

そこで私は、弟が先生宛てにレターを書くのを手伝った。このアルゴリズムは学生の行動を誤認しており、有害だと伝えるためだ。学生たちの言い分は認められ、ソフトウェアの要件は削除されることになった。

人間はAIをどう扱うべきか

こうしたアルゴリズムによる偏見は、AIを活用したさまざまな場面で見られる。予測に基づいた取り締まりや、採用活動に使われるアルゴリズム、オピオイドを処方するにあたって全米の医師が使っている乱用リスクプログラムなどだ。

研究者たちは人間社会の大きな課題の解決にAIが貢献してくれることに期待していたが、そうはなっていないことがほとんどだ。そのため、「AI倫理」という新しい分野の仕事が生まれている。

あわせて読みたい

Popular