Reuters
グーグル(Google)が社員に自社の研究の公表を減らすと告げたことが、Insiderの取材で明らかになった。背景には、OpenAIのようなライバル企業との競争激化がある。このことで、人工知能(AI)のエリート研究者たちの拠点としてのグーグルの長年における評判が変わりつつある。
この件に詳しい4人の関係者によると、同社は2023年初め、外部発表する研究についてより戦略的に取り組むことになると社員らに伝えたという。複数の研究者によれば、将来ビジネスになるという明確な見通しがない基礎研究への投資を抑制することになるという。グーグルは、ビジネスでの必要性が低く自由度の高い研究に資金を提供することにこれまで意欲的で、研究者にとっては魅力的な職場だった。
今回の戦略変更は、AI開発を加速させながら事業の効率化を図るための幅広い改革の一環のようだ。同社は2023年4月、2つの主要なAIユニットであるブレイン(Brain)とディープマインド(DeepMind)を統合すると発表しており、この統合によりAI開発が「大幅に加速する」と述べている。ChatGPTの台頭で火がついたグーグルは、現在、生成AIツールを膨大な数の製品に搭載している。
関係者によると、2つのAIユニットの統合によりできたグーグル・ディープマインド(Google DeepMind)部門は、これまで通り新しい研究成果を発表するが、公開するものについてはより慎重に選ぶことになる、と幹部が社員に伝えたという。また、大規模言語モデルや、同社が商品化できる製品により注力していくという。
ブレインのあるスタッフは、上層部からのメッセージは以下のようなものだったと話す。
「すべてを公開するようなビジネスをしている場合ではない。これからは他社と競争するため、知識を社内に留めておくべきだ」
ある社員は「この変化を嫌がる人もいれば、無関心な人もいる」と話す。
複数の情報筋によると、新しい知見の外部への公開を制限するかどうかについてはまだ議論中で、方針は完全に固まっていないが、近い将来の変更については間違いないようだ。
グーグルは毎年数百本の論文を発表している。同社は以前から、このような研究の透明性が外部の研究者を刺激し、グーグルの主力製品に関連する分野を発展させると考えてきた。そのことは、同社の研究サイトの「哲学」セクションの中で以下のように説明されている。
「私たちの研究を広め、サイエンス・コミュニティの良き一員となることは、最終的には正しいだけでなく、会社に多くの重要な利益をもたらすことになります」
しかし、その研究成果は競合他社に利用され、今やグーグルの中核事業にとって脅威となる製品がライバルによってリリースされている。OpenAIのChatGPTは、グーグルの研究者が発明し公開したAIモデルに基づいて作られた。OpenAIと戦略的パートナーシップを結んでいるマイクロソフト(Microsoft)は、その基礎技術をBingやMicrosoft Teamsなど、グーグルと競合する製品に使用しているのだ。
OpenAIが2022年11月にChatGPTを発表したことで、グーグルは痛手を被った。この件に詳しい関係者は、グーグルがChatGPTのほとんどの基礎研究を行ったにもかかわらずOpenAIにやられてしまったことで、同社の「研究チームはもっと商業的に利益を生み出さなければならない」との警鐘になったという。
競争するときが来た
2011年に設立されたグーグルブレイン(Google Brain)は、同社のリサーチチームのトップであるジェフ・ディーン(Jeff Dean)が共同創業者である。グーグルは2014年にディープマインドを5億ドル(約670億円、1ドル=135円換算)で買収したが、これら2つの研究所は互いに別組織のままだった。これは、グーグルに技術を悪用されることを恐れたディープマインドのリーダーたちの思惑だとも言われている。
「AIの世界は知り合いばかり」で、知識やノウハウはいずれ業界に知れわたるようになるとはいえ、グーグルの研究発表が減ることは、オープンソース・コミュニティにとっては痛手になる、と新たに統合された組織の研究者たちは言う。
マイクロソフトから数千億円規模の資金提供を受けているOpenAIは、開発者コミュニティの一部から「クローズドAI(ClosedAI:閉ざされたAI)」と揶揄され、大きな利益を生み出すために本来の非営利の使命を果たしていないと言われている。同社は、悪意を持つ人々にAIモデルが利用される恐れがあるとして、一部のトレーニングデータへのアクセスを制限しており、オープンソースであるAIモデルの配布についても制限をつけるよう政府に提案している。
グーグルでは他にも自社を守るための変更が行われている。最近では、コードやデータのような情報へのアクセス権は、「さらに知る必要があるかどうか」という観点をベースに判断されるようなった、とグーグルのAI担当者は言う。ディープマインドとブレインとではカルチャーが大きく違うため、この新方針は組織再編のもとではまだ浸透していないと別の人物は言う。
研究者の自律性
元ブレインの社員たちは、オープンエンドで思索的な研究を進めるために研究者たちの自律性を尊重したグーグルを称賛し、そうでなければ『トランスフォーマー』のような画期的な論文は生まれなかったのではないかと述べる。
Bardの基礎をなすチャットボット技術であるLaMDAは、もともとはグーグルブレインの中で「20%プロジェクト」として作られたものだ(グーグルは従来、従業員が労働時間の20%を本格的なグーグル製品になり得るサイドプロジェクトの探求に費やすことを認めてきた)。
「ブレインで働く人たちは、研究成果を自由に発表できるからこそ働いていたのであって、今回の新しい制限は新たな緊張の種になる可能性があります」と、元ブレインの研究者は語る。彼らのような研究者はグーグルの動きが鈍く官僚的だったため、自分たちで会社を立ち上げるために退職したと話す。ブレインで何かを実現するのは「大型船の向きを変えるように難しいものだった」という。
数多くのブレインの研究者はグーグルを退職し、自分たちが執筆に関わった代表的な研究論文をもとに資金調達をしている。製品重視の新しスタンスは、論文発表にそれほどこだわらない社内の一部の人には歓迎されるのかもしれない。
ウォールストリート・ジャーナルの報道によると、グーグルが、AIチャットボットの発言で自社の評判や金銭面に傷がつくことを恐れて製品リリースをためらった後、グーグル初のチャットボットを開発者のダニエル・デ・フレイタス(Daniel De Freitas)は退職してしまったという。
ChatGPTのリリース後、グーグルは慌ててBardを発表した。しかし、実は同社のチャットボットが最初にデモを行ったのはその何年も前だったという。
「ここから学ぶべきことは、我々は実際の製品をリリースしていかなければならないということです。とはいえ、まだそれには道半ばです」とあるブレインの研究者は話す。
グーグルのAI部門は、他にも難題に直面している。同社は2020年、大規模な言語モデルを批判する論文を発表したことを理由に、AI倫理の共同リーダーであるティムニット・ゲブル(Timnit Gebru)を解任し、厳しい批判を浴びた。グーグルはその後、彼女の同僚で倫理AIの共同リーダーであるマーガレット・ミッチェルも退職させたため、その後、同社のAI倫理部門からの大量退職につながった。
そして、2023年5月1日、機械学習のパイオニアであるジェフリー・ヒントン(Geoffrey Hinton)は、グーグルを辞職したことを発表した。彼は人工知能が害を及ぼす可能性を懸念していると述べている。