アマゾンCEOのジェフ・ベゾス氏。
David Ryder/Getty Images
- アマゾンは、採用AIツールの開発に取り組んでいた。だが、AIツールは女性に対する偏見を示したとロイターは伝えた。
- エンジニアは、AIが女性に対して好意的ではない評価を行ったのは、採用すべき人材の学習に使用した履歴書の大半が男性の履歴書だったことが原因と突き止めた。
- だが、修正がうまくいかず、同社は2017年初めにこのプロジェクトを中止したようだ。
アマゾンは採用活動用のAIツールの開発に取り組んだ。だが、AIツールは女性を差別していることが発覚し、計画は期待外れに終わったとロイターは報じた。
情報提供者の言葉を引用しつつロイヤーは、アマゾンは採用を自動化する方法を開発するために2014年、スコットランド・エディンバラに開発チームを作ったと伝えた。
そして、AIツールは候補者を見つけ出すために、インターネットから情報を収集した。
「100人の履歴書を与えると、上位5人を選んでくれる。そして、その5人を雇う。文字通り、そんなエンジンの開発を求めていた」と情報提供者の1人はロイターに語った。
だが1年後、エンジニアは開発したシステムに問題があることに気付いた ── AIツールは女性を避けていた。
AIは採用すべき人材像を学習するために、アマゾンに送られてきた10年分の履歴書を徹底的に分析したが、その履歴書の大半は男性が占めていた。それが原因となったようだ。
つまりAIは、採用すべき人材には男性の方が好ましいと結論付けてしまい、「women’s」という単語を含んだ履歴書の評価を下げ、女子大に通っていた候補者を除外していたと伝えられた。
アマゾンのエンジニアは、こうした偏りを排除するために、システムの調整に取り組んだ。だが、AIが候補者に対して、他の方法で不公平な扱いをしていないことを確信できなかった。
問題は性差別だけではなかったと情報提供者は語った。AIツールは、ポジションに相応しくない候補者を選び出すこともあった。
アルゴリズムの偏りを排除することは厄介な問題。アルゴリズムは人間の潜在意識にある偏りを反映してしまう。
2016年、ニュースサイトのプロパブリカ(ProPublica)は、再犯可能性が高い人物を予想するリスク評価ソフトウエアが、黒人に対する人種的偏見を示すことを明らかにした。
採用、信用評価、仮釈放の判断などの際にAIに頼りすぎることは、過去に問題を引き起こした。
アマゾン上層部のAIツールに対する期待は失われ、同社は2017年初めにAI採用プロジェクトを中止したと報じられた。アマゾンのリクルーターは、AIによる推薦を参考にはするが、その判断だけに頼ることはないと情報提供者はロイターに語った。
アマゾンの広報担当者は、「このシステムが当社のリクルーターによって、採用候補者の評価に使われたことはない」とBusiness Insiderに語った。
(翻訳:Yuta Machida、編集:増田隆幸)