無料のメールマガジンに登録

平日17時にBusiness Insider Japanのメルマガをお届け。利用規約を確認


AIが感情を持つかどうかより、AIの偏見の方が問題…日々、新しい差別の方法を作り出している

グーグルのロゴ

Getty Images

  • グーグルのエンジニアが感情を持つAIを開発したと述べたことが話題になった。
  • 7人の専門家が、グーグルのAIチャットボットは感情を持たないとInsiderに語った。
  • 3人の専門家によると、AIによる偏見の方が大きな懸念事項だという。

いいニュースと悪いニュースがある。いいニュースは、感情を持つAIが現実になるには程遠いということ。悪いニュースは、AIにはその他に数多くの問題があることだ。

AIは感情を持ったという話が最近話題になった。グーグルのエンジニア、ブレイク・レモイン(Blake Lemoine)は、LaMDA(Language Model for Dialogue Applications)と名付けられた同社のチャットボットが感情を持ったことを確信したと述べた。

Insiderが話を聞いた7人の専門家は全員、LaMDAが感情を持ったというレモインの意見を否定した。7人の中には、件のチャットボットを直接扱ったグーグルの従業員もいた。

だがAIは、賢くなくても深刻な被害をもたらすと専門家は述べている。

AIのバイアスは、歴史的な人間の差別的習慣を複製し増幅することがよく知られている。

例えば、顔認証システムには人種や性別に関するバイアスがあることが分かっており、アマゾンは2018年、女性の応募者に対して差別を行っていたことから、同社が開発した採用AIツールの使用を停止した

「予測アルゴリズムやAIが広く使われるとき、その予測アルゴリズムが集団の意見や概念、嘘などを再生成したものだと認識することは難しい」とAI倫理の専門家で女性テクノロジーネットワークのFrauenloopのCEO、ナキーマ・シュテッフルバウアー(Nakeema Stefflbauer)博士は語った。

「歴史的に関連のある言葉の自動生成がいかに『感覚的』であるかを推測するのは楽しいかもしれない。しかしアルゴリズムの予測が、Redditのデータに基づいて個人やコミュニティを除外し、ステレオタイプ化したり、不当にターゲットにしたりしている現状では、不誠実な習慣だと言える」と彼女はInsiderに語った。

オックスフォード大学のサンドラ・ワッチャー(Sandra Wachter)教授は、AIは民族や性別などの特性に対してバイアスを示すだけでなく、人をカテゴリー分けして差別する新しい方法を見つけていると最近の論文で述べた。例えば、求人に応募するときに使うブラウザによってAI採用システムがあなたの応募を優遇したり、不利にしたりする可能性がある。

ワッチャー教授が懸念するのは、AIが新しい差別の方法を見つけることを止める法的枠組みがないことだ。

Popular

あわせて読みたい

BUSINESS INSIDER JAPAN PRESS RELEASE - 取材の依頼などはこちらから送付して下さい

広告のお問い合わせ・媒体資料のお申し込み