大規模言語モデル「GPT-4」を発表したOpenAIの「本命」ライバルと目されるアンスロピック(Anthropic)が動き出した。画像は同社ウェブサイトより。
Screenshot of Anthropic Website
ダリオ・アモデイ氏は人工知能(AI)研究開発企業OpenAI(オープンエーアイ)在籍時、対話型AI「ChatGPT(チャットジーティーピー)」の基盤技術となる大規模言語モデル「GPT-2」「GPT-3」などの開発に5年近く関わった。
中国検索エンジン大手バイドゥ(Baidu、百度)や検索エンジン世界最大手グーグル(Google)を経て、創設後1年足らずのOpenAIにジョインし、研究担当バイスプレジデントまで務めたアモデイ氏は、2021年にAIシステム開発を手がけるアンスロピック(Anthropic)を共同創業した。
アモデイ氏はその後、対話型AI「Claude(クロード)」を開発。今年2月には、グーグルから3億ドルを調達した。マイクロソフト(Microsoft)がOpenAIに対し総額100億ドルを投資すると発表した直後のことだった。
さらに3月14日、アンスロピックはClaudeのAPIを招待メンバー限定ながら、他のアプリケーション・サービス開発者向けに提供開始すると発表した。
グーグルがアンスロピックに出資したのは、OpenAIの脅威に対するヘッジ(リスク回避)の側面もある。アモデイ氏は、複数のテスターによる評価として、Claudeが(GPT-3モデル時代の)ChatGPTに比べて「より会話が自然で」クリエイティビティが高いとの意見を紹介する。
グーグルとアンスロピックは現時点でそれぞれ異なる大規模言語モデル(グーグルは「LaMDA」)および対話型AIを開発し、自由形式の質問への回答、テキスト分析、要約作成などの品質向上に取り組んでいる。
ソーシャルQ&Aサイトのクオラ(Quora)や統合情報管理アプリのノーション(Notion)のように、自社の対話型AI製品(クオラは「POE AI」、ノーションは「Notion AI」)の基盤技術としてClaudeを使うパートナー企業もすでに出てきている。
アンスロピックは今回、最大限の機能を利用できる高性能版の「Claude」と、軽快な動作と低コストを優先した軽量版の「Claude Instant」という2種類の対話型AIを用意した。
料金はプロンプト(質問、作業指示)とアウトプット(回答、作業結果)の文字数による従量制で、高性能版のプロンプトが100万字当たり2.90ドル、アウトプットが同8.60ドル。軽量版のプロンプトが同0.43ドル、アウトプットが同1.45ドルとなっている。
「合規的AI」
2022年11月にChatGPTがリリースされて以来、人間のような応答を生成したり、ウェブ上の情報を学習してまるまる新たなエッセイを書いたり、その能力の高さがバズって、ブームとも言える現象が起きている。
その背景には、各社が競って開発を進める大規模言語モデルの「極めて急速な」(アモデイ氏)品質向上がある。
ただし、アモデイ氏はそうした競争のトップ集団の一角であるOpenAIの出身ながら、アンスロピック設立に際して掲げたフィロソフィーは他の競合企業と一線を画する。
同社が重視するのは、AIシステムの能力が向上しても常に制御可能なように、社会がその仕組みを理解している状態にできる限り近づけることだ。
対話型AIの厄介な問題は、想定外の動作が散見されること。そこで、人間が意図した通りに動作し、人種差別的な発言などの不快もしくは有害なアウトプットを生成しないようコントロールをきかせるため、アンスロピックは「合規的(constitutional)AI」の考え方にこだわってきた。
アンスロピックの開発するAIシステムには、それを利用する顧客側が考えるAIの動作に関する基本原則、規範の要点をまとめたドキュメントが含まれている。
「合規的AI」の必要性を理解するには、少し時間を遡らねばならない。
アモデイ氏はOpenAI在籍中、強化学習技術の開発に関わっていた。
対話型AIの出した回答に対し、人間が承認か不承認の評価を与え、その学びを繰り返すことで(より承認を得られる)適切な回答を出せるようになっていくのが強化学習で、グーグルは目下この手法を用いて「Bard(バード)」の品質改善を進めている。
このやり方だと、AIの設計者はシステムの応答をある程度コントロールできるようになるものの、最後は人間からのフィードバックの平均値のような回答に落ち着きがちだとアモデイ氏は語る。
その点、「合規的AI」を搭載するアンスロピックのClaudeは、利用する顧客企業が求める基本原則、規範をあらかじめ読み込んだ上でアウトプットを生成し、自己批評を経て回答を提示するため、より想定に近い結果を得ることができる。
「(現状では)例えば、対話型AIの出す回答に政治的なバイアスがかかっているとの批判があったとしても、なんでそんな回答が出てきたのか、どんな学習プロセスを経てその回答が出てきたのか、知りようもありません。
その点、『合規的AI』の手法を使えば、(学習時に優先すべき規範や基本原則が明文化されているので)透明性が確保されるのです」
アンスロピックは、最終的には顧客側がそれぞれ独自の規範を作成し、それを読み込んだClaudeが顧客のアプリケーション内で規範に応じたアウトプットを生成する形に持っていく計画だが、現時点ではそこまでたどり着いていない。
と言うのも、Claudeの具体的なユースケースは、法律文書を読み取って内容を要約するなど用途が(現在のところ)限定されており、問題視されるような回答を発する可能性が低い(それゆえにカスタマイズ需要への対応は優先度が高くない)からだ。
「幻覚症状」は徐々に解決すればいい
マイクロソフトとグーグルの対話型AIに対しては、いずれも質問に対して誤った答えが返ってくるとの批判が上がっている。
意味の通じる自然な文章を生成するのは対話型AIの得意とするところだが、その作り出した文章が真実か虚偽かを自らの力で判別する能力は備わっていない。
そうした対話型AIの“創作癖”を揶揄して、業界内では「幻覚(症状)」と呼んだりする。
アモデイ氏のスタンスは、Claudeが現時点でパーフェクトでなくとも徐々に改善されるのであれば問題ないというものだ。
「問題の多くは一種のトレードオフ(両立不可能な関係性)なのです。言語モデルがいわゆる『幻覚症状』に絶対陥らないようにするには、質問に応答しないようにすればいいだけ。そういう意味で、これは解決可能な問題ではあります。
が、言語モデルには引き続き私たちの社会に役立つ仕事をしてもらって、なおかつ問題も解決したいという話だから厄介なのです。
とは言え、対話型AIが生成する回答の事実関係の正確性を向上させることは重要かつ喫緊の課題です。当社としては言語モデルの信頼性を高めていく必要があると考えていますし、それが自分たちの仕事の核心であると考えています」