Tada Images / Shutterstock.com
2022年12月、ツイッター(Twitter)CEOのイーロン・マスクは、同プラットフォーム上でのヘイトスピーチの報告が増えているにもかかわらず、オンライン上の安全性について助言する同社の「信頼と安全(Trust & Safety)協議会」を解散させた。
この決定をきっかけに、シリコンバレーでは「信頼と安全」チームの目的をめぐって激しい議論が巻き起こった。こうした組織は進歩に逆行する立場をとっており、製品イノベーションを遅らせ、面倒なルールやハードルを持ち込む、というのが多くの人の認識だ。とりわけ、マーク・ザッカーバーグ(Mark Zuckerberg)の「素早く動き、破壊せよ」という悪名高いモットーに従って生きている世界では。
しかし中にはその逆——信頼と安全は「バグ」ではなく「機能」であると証明することにこれまでのキャリアを捧げてきた人もいる。それが、OpenAIのライバルと目されるAnthropic(アンスロピック)共同創業者兼社長のダニエラ・アモデイ(Daniela Amodei)だ。
「これは組織構造の問題ですが、考え方の問題でもあります。ですから、他のすべてのチームが、信頼と安全を対等なパートナーとみなすなら、必ずしも軋轢は生じないと思います」(アモデイ)
Anthropicの共同創業者兼社長、ダニエラ・アモデイ。
Anthropic
もちろん、アモデイのAnthropicとマスクのツイッターはまったくの別物だ。だが、AIの分野にせよソーシャルメディアの分野にせよ、誰がテクノロジーを取り締まり、それぞれの価値観が「正しい」あるいは「間違っている」と判定するかという問題に対処しなければならない点は似ている。
ここ数カ月、AIはソーシャルメディアのようにさかんに話題になっている。技術が加速的に進歩し関連するスタートアップが設立されるにつけ、投資家、ファウンダー、そして一般の人々の関心も一様に高まっている。
AI研究のAnthropicは、この誇大宣伝の恩恵を受けている。同社はすでに10億ドル(約1350億円、1ドル=135円換算)以上を調達しており、ピッチブック(PitchBook)によれば2023年に入って2度目となる直近のラウンドでは、スパークキャピタル(Spark Capital)から3億ドル(約405億円)を調達し、バリュエーションは41億ドル(約5535億円)に達した、とThe Informationは伝えている。
現在、アモデイはAnthropicの仲間とともに、信頼と安全を後回しにするどころかこのAI新時代の中核に据えるべく、取り組みを行っている。
常道を外れて
アモデイがテック分野に至った道のりは、実に型破りなものだった。
アモデイはもともとグローバルヘルスと政治の分野でキャリアをスタートさせた。ペンシルベニア州北東部の連邦下院選挙での勝利にも貢献したが、米連邦議会でマット・カートライト(Matt Cartwright)下院議員のスケジュール管理・コミュニケーション担当を何カ月かやってみて、政治は性に合わないと見切りをつけた。
2013年にテック分野に転じ、当時はまだ社員40人だった決済スタートアップ、ストライプ(Stripe)に入社。2018年にはOpenAIに移った。どちらの会社でも、人・リスク・安全を中心とする職務を担当し、これがその後のキャリア全体を貫く最重要要素になった。
2020年、アモデイは兄弟のダリオ・アモデイ(Dario Amodei)を含む6人の社員とともにOpenAIを去り、競合となるAnthropicを立ち上げた。
この決断は物議を醸すものだった。OpenAIの元従業員がウォール・ストリート・ジャーナルに語った話では、当時OpenAIの安全性担当主任研究者だったダリオ・アモデイは、マイクロソフト(Microsoft)と契約することで、安全性テストも満足に実施しないうちから製品リリースを強いられること、マイクロソフトとの関係が近くなりすぎることを懸念していたという。
Insiderの取材に応じたダニエラ・アモデイは、在籍当時のOpenAIのプロダクトは開発の初期段階にあったため十分なコメントはできないとしながらも、Anthropic設立の中核には「安全性を中心に据えて集中的に研究に取り組む、非常に小規模でまとまりのあるチームというビジョン」があったと語った。
Anthropicはすでにそのビジョンの実現に向けて動き始めているようだ。3月にはOpenAIのChatGPTに対抗する、操縦性の高い対話型AI「Claude(クロード)」をリリースした。すでにNotion(ノーション)やQuora(クオラ)などがClaudeを採用している。
安全を最優先に
現在、AI企業の多くは安全性を重視していると主張するが、アモデイは、Anthropicの安全への取り組みはリップサービスを超えたものだと語る。
安全性は、最終段階だけでなく、研究プロセスのあらゆるステップに組み込まれるべき価値だとアモデイは語る。
Anthropic自身は、有用(helpful)、正直(honest)、無害(harmless)の「トリプルH」フレームワークに基づいて研究を行っている。具体的には、モデルの出力や強化学習にフィードバックを与える際、あるいは「憲法AI」(人間が用意した、透明性と無害性をAIに促す規則をもって訓練されたモデル)を構築する際に、さまざまな人間や視点を活用している。
AIはこの規則に従って自分自身を監督し、モデルの出力が「トリプルH」フレームワークを満たしているかどうかを、多くの人間が関与せずとも判断できるようになる、とアモデイは説明する。
さらに、学術研究所から政府機関まで広く他の機関にも使ってもらいたいとの願いから、Anthropicは安全性に関する研究を公表している。
アモデイは、このように現在では信頼と安全が顧客の製品要件になっていると考えているが、利益を追求する企業にとっては、スピードと安全性の間にやっかいなトレードオフが生じることも認める。だが、最初からこれらの価値を優先させることで、企業は予測不能の危機に身動きがとれなくなる事態を回避し、敏捷さを保つことができる、とアモデイは語る。
未来を見つめて
「小規模でまとまりのあるチーム」というビジョンを念頭に設立されたAnthropicだが、LinkedIn(リンクトイン)によるとすでに社員100人以上を擁し、この半年で社員数は50%以上増えている。
Anthropicは成長のさなかにあっても学際的なカルチャーを維持しており、アモデイによれば社員の経歴は物理学から計算生物学、政策立案まで幅広い分野にわたっているという。それは創業者も同様で、共同創業者のジャック・クラーク(Jack Clark)は、ブルームバーグ(Bloomberg)の技術ジャーナリストからAI業界に転身した異色の経歴だ。
「私たちは従来のテック企業とはちょっと違うんです」(アモデイ)
アモデイにとって、AIを安全に構築するという課題は、未来を予測するという不可能に近い取り組みを必要とする。
「私たちはみな、現在の問題に目を向けると同時に、制御しやすい進捗を実現する方法を真剣に考える必要があります。そして、やがて起こる未来の問題にも目を向ける必要があります」
しかし不確実性だらけの状況でも、心躍ることもたくさんあるという。
「この分野に入り込んでいても、いろいろな人たちとコミュニケーションしたり関わり合ったりする方法を変えうる大きな流れの尖端にいるんだ、という感覚はなくなりません」