仮想の町でAIアバターを観察した研究「Generative Agents:Interactive Simulacra of Human Behavior(ジェネレーティブ・エージェント:人間の行動のインタラクティブな像)」のスクリーンショット。
arXiv/Cornell University
- 研究者たちは、25人のAIアバターを仮想の町に放った。
- アバターたちは、日々のスケジュールを立てたり、政治の話をしたり、デートをしたり、パーティーを企画したりしたという。
- AIの専門家、マイケル・ウールドリッジは今回の発見はAGIに向けた「小さな一歩」であるとInsiderに語っている。
25人のAIエージェントたちを仮想の街に放つとどうなるだろうか? 最近の研究で彼らがどんなことをするのかを観察したところ、実際の人間とそれほど変わらないことが分かったという。
スタンフォード大学(Stanford University)とグーグル(Google)の研究チームは、AIで生成されたアバターが大規模言語モデル(LLM)を用いて、記憶など「リアリティーのある人間の行動をシミュレート」できるかを観察する実験を行った。
この実験を行うために研究者たちは異なるアイデンティティを持つ25人のAIエージェントを作成し、寮、公園、学校、カフェ、バー、住宅、店舗などがある「スモールビル(Smallville)」と呼ばれる仮想の街で、AIエージェント同士がどのように交流し、その環境でどのように振舞うのかを観察した。人間の行動をシミュレートするため、研究者たちはOpenAIのChatGPTで採用されているモデルのGPT-3.5を使用し、AIエージェントたちに本を読んだり、図書館の司書と話すといった特定のタスクを実行するように促した。
これらを観察した結果、この生成エージェントたちは「リアリティーのある個人と社会的行動を作り出す」ことができたと研究者たちは結論づけた。
例えば、イザベラ・ロドリゲス(Isabella Rodriguez)とトム・モレノ(Tom Moreno)というAIアバターが町の次期選挙について討論した。イザベラがトムに、スモールビルの市長選に立候補しているサム・ムーア(Sam Moore)についてどう思うかと尋ねると、トムは自分の意見を答えた。
「正直に言うと、私はサム・ムーアが好きではない」とAIのトムは言った。
「彼は地域社会との接点がなく、我々の利益を一番に考えていないと思う」
また、AIエージェントは環境に対応することもできた。イザベラは、食べ物が焦げていると言われた時、コンロの火を消して新しい朝食を作ったのだ。AIエージェントのジョン・リン(John Lin)は、彼女が自分で立てたスケジュールに従って、一日中、促されることなしに自発的に会話をしていた。
バレンタインデーのパーティーを、エージェントたちは指示がなくても開催することができた。この仕事を任せられたイザベラは、近所のカフェで知り合った友人やお客さんを招待し、パーティー会場の飾り付けを「自主的に」行った。彼女に招待されたエージェントたちは、午後5時に一緒にパーティー会場に到着する計画を立てた。パーティーに招待されたAIエージェントのマリア(Maria)は「密かに魅かれている」クラウス(Klaus)をデートに誘い、彼はそれを承諾した。
AIエージェントによるバレンタインデー・パーティーのスクリーンショット。
arXiv/Cornell University
今回の研究には参加していないが、オックスフォード大学(Oxford University)のコンピュータサイエンスの教授でAIを研究しているマイケル・ウールドリッジ(Michael Wooldridge)は、今回の発見について、ChatGPTを支える生成型AIモデルが、バーチャルアシスタント以外の用途にも活用できることを示しているとInsiderに語っている。
ウールドリッジ教授によると、これらの研究がタスク管理アプリに現実的に適用できる可能性があるという。
この研究に関与していないAI研究者のジェイム・セビラ(Jaime Sevilla)は、この研究の背景にあるモデルは、ビデオゲームのノンプレイヤーキャラクターにも応用できる可能性があるとInsiderに述べている。
この研究に携わった研究者らは、Insiderのコメント要請を拒否した。
今回の発見は、 汎用人工知能 (人間のように複雑な行動を行うAIツール)の実現に向けた「小さな一歩」だとウールドリッジ教授は述べている。しかし、この目標が実現するまでには、「まだまだ長い長い道のりがある」とという。
AIエージェントたちは幻覚を見たり、ある出来事を思い出せなかったりすることがあった。これは、モデルの学習方法に原因があるとウールドリッジ教授は考えている。
研究者らは、自分たちのAIエージェントたちは人間の創発的な行動を示したと結論づけたが、ウールリッジ教授は、「我々は懐疑的になる必要がある」とし、AIが言うことを額面通りに受け取ってはいけないと述べている。