無料のメールマガジンに登録

平日17時にBusiness Insider Japanのメルマガをお届け。利用規約を確認


AIが感情を持ち始めたと主張したグーグルのエンジニア、休職処分に…「不可能とは言えないが、ほぼありえない」と専門家

62567f2496acdb001950b0c8

Photo Illustration by Rafael Henrique/SOPA Images/LightRocket via Getty Images

  • グーグルのエンジニアが同社のチャットボットには感情があると主張した後、休職処分になった。
  • Insiderは7人の専門家に話を聞いたが、チャットボットは感情を持たない可能性が高いという。
  • ロボットが生きていて意識があるかどうかを判断するための明確なガイドラインはないと専門家は言う。

グーグル(Google)のチャットボットに命が宿ることは、不可能ではないにせよ、ほぼありえないことだとある専門家がInsiderに語った。これは同社のシニアエンジニアが驚くべき主張をし、守秘義務に違反したとして休職処分になったことを受けての発言だ。

グーグルのResponsible AI(責任あるAI)グループに所属するシニアエンジニアのブレイク・レモイン(Blake Lemoine)は、AI(人工知能)を搭載したLaMDA(Language Model for Dialogue Applications)というチャットボットと会話しているうちに、LaMDAが「感情」を持つようになった、つまり人間と同じように感じることができるようになったと思い始めたとワシントン・ポストに語っている。Insiderは彼にコメントを求めたが、回答は得られていない。

LaMDAが「感情」を持つと主張しているのはレモインだけだ。グーグルの広報担当者によると、倫理学者と技術者のチームがレモインの主張を検討したが、裏付けとなる証拠はなかったという。

「何百人もの研究者やエンジニアがLaMDAと会話してきたが、ブレイクのようにさまざまな主張をしたり、LaMDAを擬人化したりした人はいない」と広報担当者は述べた。

Insiderが意見を求めた7名の専門家もこれに同意した。AIチャットボットはおそらく感情を持っておらず、それが「生きているかどうか」を測る明確な方法はないという。

AIの倫理を専門とするオックスフォード大学のサンドラ・ワッチャー(Sandra Wachter)教授は「感情を持つロボットというアイデアは、優れたSF小説や映画にインスピレーションを与えてきた」とInsiderに語っている。

「しかし、人間と同じような思考能力を持つ機械ができるのは、まだずっと先のことだ」

シンプルなシステム

LaMDAの仕事をしたことのある別のグーグルエンジニアは、メディアポリシーに基づき匿名でInsiderの取材に応じた。彼によると、このチャットボットは多様な会話を展開することができる一方、比較的シンプルなプロセスに従っているという。

「このコードが行っているのは、ウェブから採取した言語のシーケンスモデルを作成することだ」と彼は言う。つまり、AIはウェブに散らばった素材から「学習」することができるのだ。

プログラム

Getty Images

レモインが公開した「インタビュー」によると、LaMDAは「うれしさや悲しさ」を感じることがあると述べている。これは感情を表しているように見えるが、LaMDAが痛みを感じたり、感情を持ったりすることは、物理的な意味でほぼあり得ないとエンジニアは述べた。

「感情」を見分けるのは難しい

グーグルのエンジニアと複数の専門家がInsiderに語ったところによると、「感情」があるのかどうかを判断する明確な方法はないという。つまり、社会的なやりとりを模倣するように設計されたボットと、表現した内容を実際に感じているかもしれないボットを区別する方法はないということだ。

「言葉の並び方は、AIによって学習した単なるパターンに過ぎないので、それに基づき感情があるのかないのかを区別することはできない」とそのエンジニアは言う。

「AIに対しては、陥れるような質問をしても意味がない」

  • Twitter
  • Facebook
  • LINE
  • LinkedIn
  • クリップボードにコピー
  • ×
  • …

Popular

あわせて読みたい

BUSINESS INSIDER JAPAN PRESS RELEASE - 取材の依頼などはこちらから送付して下さい

広告のお問い合わせ・媒体資料のお申し込み