Getty Images
- グーグルのエンジニアが感情を持つAIを開発したと述べたことが話題になった。
- 7人の専門家が、グーグルのAIチャットボットは感情を持たないとInsiderに語った。
- 3人の専門家によると、AIによる偏見の方が大きな懸念事項だという。
いいニュースと悪いニュースがある。いいニュースは、感情を持つAIが現実になるには程遠いということ。悪いニュースは、AIにはその他に数多くの問題があることだ。
AIは感情を持ったという話が最近話題になった。グーグルのエンジニア、ブレイク・レモイン(Blake Lemoine)は、LaMDA(Language Model for Dialogue Applications)と名付けられた同社のチャットボットが感情を持ったことを確信したと述べた。
Insiderが話を聞いた7人の専門家は全員、LaMDAが感情を持ったというレモインの意見を否定した。7人の中には、件のチャットボットを直接扱ったグーグルの従業員もいた。
だがAIは、賢くなくても深刻な被害をもたらすと専門家は述べている。
AIのバイアスは、歴史的な人間の差別的習慣を複製し増幅することがよく知られている。
例えば、顔認証システムには人種や性別に関するバイアスがあることが分かっており、アマゾンは2018年、女性の応募者に対して差別を行っていたことから、同社が開発した採用AIツールの使用を停止した。
「予測アルゴリズムやAIが広く使われるとき、その予測アルゴリズムが集団の意見や概念、嘘などを再生成したものだと認識することは難しい」とAI倫理の専門家で女性テクノロジーネットワークのFrauenloopのCEO、ナキーマ・シュテッフルバウアー(Nakeema Stefflbauer)博士は語った。
「歴史的に関連のある言葉の自動生成がいかに『感覚的』であるかを推測するのは楽しいかもしれない。しかしアルゴリズムの予測が、Redditのデータに基づいて個人やコミュニティを除外し、ステレオタイプ化したり、不当にターゲットにしたりしている現状では、不誠実な習慣だと言える」と彼女はInsiderに語った。
オックスフォード大学のサンドラ・ワッチャー(Sandra Wachter)教授は、AIは民族や性別などの特性に対してバイアスを示すだけでなく、人をカテゴリー分けして差別する新しい方法を見つけていると最近の論文で述べた。例えば、求人に応募するときに使うブラウザによってAI採用システムがあなたの応募を優遇したり、不利にしたりする可能性がある。
ワッチャー教授が懸念するのは、AIが新しい差別の方法を見つけることを止める法的枠組みがないことだ。
「AIが採用、貸付、刑事裁判における過去の不当な行為のパターンをピックアップし、未来に移管させることは知られている。また、AIは重要な決断をするため、法律で守られていない新しいグループを作ることも可能だ」と彼女は語った。
「これらの問題には、すぐに答えが必要だ。まずはこれらに対応し、AIが感情を持つのかどうかは、実際に境界を超えそうになったときに考えよう」とワッチャー教授は付け加えた。
ニューヨーク大学でコンピューターサイエンスのリサーチャーを務めるローラ・エデルソン(Laura Edelson)は、AIシステムは差別的である人々に逃げ道を提供するものでもあると話している。
「機械学習システムの一般的な使用例は、責任を放棄しつつ、やりたくない決断をすることだ。『私ではなく、システムのせいなんです』と」と彼女はInsiderに話した。
シュテッフルバウアーは、AIの感情に関する話題が、より差し迫ったAIのバイアスに関する問題を覆い隠していると考えている。
「アルゴリズムの進化や『感情」の話を否定しなければならないことは、世界中のAI倫理研究者の仕事を妨げている。AIシステムが可能にする害悪の拡大に対応する時間がなくなり、メディアの関心もそちらへ向かないからだ」
(翻訳:Makiko Sato、編集:Toshihiko Inoue)