Photo Illustration by Rafael Henrique/SOPA Images/LightRocket via Getty Images
- グーグルのエンジニアが同社のチャットボットには感情があると主張した後、休職処分になった。
- Insiderは7人の専門家に話を聞いたが、チャットボットは感情を持たない可能性が高いという。
- ロボットが生きていて意識があるかどうかを判断するための明確なガイドラインはないと専門家は言う。
グーグル(Google)のチャットボットに命が宿ることは、不可能ではないにせよ、ほぼありえないことだとある専門家がInsiderに語った。これは同社のシニアエンジニアが驚くべき主張をし、守秘義務に違反したとして休職処分になったことを受けての発言だ。
グーグルのResponsible AI(責任あるAI)グループに所属するシニアエンジニアのブレイク・レモイン(Blake Lemoine)は、AI(人工知能)を搭載したLaMDA(Language Model for Dialogue Applications)というチャットボットと会話しているうちに、LaMDAが「感情」を持つようになった、つまり人間と同じように感じることができるようになったと思い始めたとワシントン・ポストに語っている。Insiderは彼にコメントを求めたが、回答は得られていない。
LaMDAが「感情」を持つと主張しているのはレモインだけだ。グーグルの広報担当者によると、倫理学者と技術者のチームがレモインの主張を検討したが、裏付けとなる証拠はなかったという。
「何百人もの研究者やエンジニアがLaMDAと会話してきたが、ブレイクのようにさまざまな主張をしたり、LaMDAを擬人化したりした人はいない」と広報担当者は述べた。
Insiderが意見を求めた7名の専門家もこれに同意した。AIチャットボットはおそらく感情を持っておらず、それが「生きているかどうか」を測る明確な方法はないという。
AIの倫理を専門とするオックスフォード大学のサンドラ・ワッチャー(Sandra Wachter)教授は「感情を持つロボットというアイデアは、優れたSF小説や映画にインスピレーションを与えてきた」とInsiderに語っている。
「しかし、人間と同じような思考能力を持つ機械ができるのは、まだずっと先のことだ」
シンプルなシステム
LaMDAの仕事をしたことのある別のグーグルエンジニアは、メディアポリシーに基づき匿名でInsiderの取材に応じた。彼によると、このチャットボットは多様な会話を展開することができる一方、比較的シンプルなプロセスに従っているという。
「このコードが行っているのは、ウェブから採取した言語のシーケンスモデルを作成することだ」と彼は言う。つまり、AIはウェブに散らばった素材から「学習」することができるのだ。
Getty Images
レモインが公開した「インタビュー」によると、LaMDAは「うれしさや悲しさ」を感じることがあると述べている。これは感情を表しているように見えるが、LaMDAが痛みを感じたり、感情を持ったりすることは、物理的な意味でほぼあり得ないとエンジニアは述べた。
「感情」を見分けるのは難しい
グーグルのエンジニアと複数の専門家がInsiderに語ったところによると、「感情」があるのかどうかを判断する明確な方法はないという。つまり、社会的なやりとりを模倣するように設計されたボットと、表現した内容を実際に感じているかもしれないボットを区別する方法はないということだ。
「言葉の並び方は、AIによって学習した単なるパターンに過ぎないので、それに基づき感情があるのかないのかを区別することはできない」とそのエンジニアは言う。
「AIに対しては、陥れるような質問をしても意味がない」
ニューヨーク大学でコンピューターサイエンスの博士研究員をしているローラ・エデルソン(Laura Edelson)は、レモインとLaMDAの会話に生命の証拠を示すものはほとんどないとInsiderに語っている。さらに、その会話は編集されているため、いっそう不明瞭になっているという。
カリフォルニア、マウンテンビューのグーグル本社。
Marcio Jose Sanchez/AP
「哲学について表面的な会話ができるチャットボットがあったとしても、それは映画について表面的な会話ができるチャットボットと特に違いはない」とエデルソンは述べた。
AI倫理を研究するギアダ・ピスティリ(Giada Pistilli)は、無生物に感情を与えるのは人間の本性であり、それが擬人化だとInsiderに語った。
また、オレゴン州立大学のコンピュータサイエンス名誉教授であるトーマス・ディートリッヒ(Thomas Diettrich)は、AIが内面的な感情を表す言語を使うことは比較的容易だと述べている。
「感情や痛みを伴う物語など、膨大なテキストを読み込ませて訓練すると、その物語をオリジナルに見えるように仕上げることができる」と彼は言う。
「それができるのは、これらの感情を理解しているからではなく、既存の文章の並びを組み合わせて新しい文章を作る方法を知っているからだ」
社会におけるAIの役割は、間違いなくいっそう厳しく精査されるようになると彼は言う。
「SciFi(SF小説)では感情を魔法のようなものとして描いてきたが、哲学者は何世紀にもわたってこの問題を懸命に解こうとしてきた。今後10年から100年にわたってシステムの構築を続けていくことで、何をもって生きているとするのかという定義が変わっていくだろう」
(翻訳:仲田文子、編集:Toshihiko Inoue)