「AIのゴッドファーザー」と呼ばれる3人の専門家たち。左から、ヤン・ルカン氏、ジェフリー・ヒントン氏、ヨシュア・ベンジオ氏。本記事では彼らを含め、その発言に注目の集まるAI専門家16人を紹介しよう。
Meta Platforms/Noah Berger/Associated Press
2022年11月に対話型人工知能(AI)「ChatGPT」がリリースされて以来、AIはテクノロジーやビジネス、私たちのキャリアから日常生活まであらゆる分野を変革しようとしている。
AIへの投資は急速に拡大しており、米金融大手ゴールドマン・サックス(Goldman Sachs)の試算によれば、2025年までにアメリカだけで1000億ドル(約14兆円)、世界ではその倍の2000億ドルに達する勢いだ。
人々はいま、AIやその応用技術がコミュニケーションの方法をどう変えるのか、私たちの生活をどう効率化するのか、いかにして私たちの仕事を代替し得るのか、考えを巡らせている。
一方でここ数カ月、目まぐるしいペースで進むAIの開発に伴うリスクとベネフィットについて、有力経営者や研究者たちが声を上げるようになった。
AIは人間の生活の質を大きく向上させると言う人もいる。逆に、AI開発の一時停止を求める公開書簡への署名活動に賛同する人や、AIが抱える長期視点でのリスクについて議会で証言する人、さらには、AIが気候変動以上に差し迫った危機を世界にもたらす可能性があると主張する人もいる。
要するに、AIはいま最もホットな話題であり、論争の的でもある。
Insider編集部は、混沌を極めるこの論議の全体像を把握する上で、読者が知っておくべきAI分野のビッグネームをリストアップした。
完全に網羅したリストとまでは言えないものの、以下で紹介する人物たちが何を語っているかを知ることは、AIが我々の未来をどう形づくるかを見通すための格好の足がかりとなるだろう。
ジェフリー・ヒントン(トロント大学名誉教授)
ジェフリー・ヒントン氏は今年春まで、10年以上にわたってグーグル(Google)でAI開発に携わっていた。
Noah Berger/Associated Press
「AIは気候変動よりも差し迫ったリスクだ」
ヒントン氏の研究は、主にニューラルネットワーク(人間の脳の神経回路の構造を数学的に表現した機械学習のアルゴリズム=計算手順の一つ)に焦点を当てている。
2018年には、共同研究者のヤン・ルクン氏(ニューヨーク大学教授)、ヨシュア・ベンジオ氏(モントリオール大学教授)とともに、コンピュータサイエンス分野のノーベル賞ともいわれる「チューリング賞」を受賞した。
ヒントン氏はグーグルに10年以上勤務し、この春に退職。「AI技術の急速な発展について、より自由に発言できるようになりました」と語っている。
彼はグーグルにおいてAIの技術進歩に果たした自身の役割について、後悔している面もあるという。
「私がやらなくても、他の誰かがやっていた。そういうありきたりの言い訳で自分を慰めています。悪意ある者がAIを良からぬことに使うのをどう防ぐか、それは非常に難しい問題です」
グーグル退職後、ヒントン氏はAIの安全性について積極的に発言するようになり、AIは気候変動よりも差し迫ったリスクであるとまで述べている。彼はまた、AIの開発を6カ月間休止するよう求める公開書簡にも署名している。
ヨシュア・ベンジオ(モントリオール大学教授)
ベンジオ氏は「AIのゴッドファーザー」と呼ばれる重要人物の一人。
Associated Press
「不確定要素が多すぎて予断を許さない」
ヨシュア・ベンジオ氏は「AIのゴッドファーザー」と呼ばれ、前項のヒントン氏、ヤン・ルカン氏との共同研究ではチューリング賞を受賞している。
ベンジオ氏はニューラルネットワーク、ディープラーニング(深層学習)、マシンラーニング(機械学習)を主な研究テーマとする。
彼自身のウェブサイトによると、2022年、同氏は世界で最も高い「h指数(h-index)」(発表した論文数と被引用数を用いて研究成果を定量的に評価する指標)を持つコンピュータサイエンティストとなった。
ベンジオ氏の活躍の舞台は学術研究にとどまらず、2020年に業務プロセス統合管理のサービスナウ(ServiceNow)が買収したエレメント(Element)AIの共同創業者でもある。買収後はサービスナウのテクニカルアドバイザーに就任した。
彼はここ数カ月、AIの急速な発展に懸念を表明している。
「現在のAIシステムは、社会に存続の危機をもたらすようなものではありません。しかし、1年後、2年後、5年後はどうでしょうか。不確定要素が多すぎて、予断を許しません」
ベンジオ氏も前項のヒントン氏と同じく、AI開発の一時休止を求める公開書簡に署名。この書簡は3月に公開されて以降、ChatGPT開発元のOpenAIを率いるサム・アルトマン氏やイーロン・マスク氏など3万3000人以上が署名している。
サム・アルトマン(OpenAI共同創業者兼CEO)
2022年11月の対話型AI「ChatGPT」リリースを機に、AI分野での存在感が「大物級」に躍進したサム・アルトマン氏。
JASON REDMOND/AFP via Getty Images
「ChatGPTの潜在リスクを考えると眠れない夜もある」
サム・アルトマン氏はシリコンバレーでは以前からよく知られた存在で、イーロン・マスク氏らと共同でOpenAIを設立する前後の時期は、名門スタートアップアクセラレーターのYコンビネーター(Y Combinator)のプレジデントを務めた。
アルトマン氏はAIのもたらすベネフィットを「人々の生活の質を飛躍的に向上させる」と表現する一方で、人類にもたらすリスクについても率直に語ってきた。
米上院司法委員会の公聴会で証言した際には、AIの「規制は不可欠」で「世界的な枠組みが必要」だと主張している。
また、メディアイベントに登壇した際は、「ChatGPTの潜在リスクについて考え出すと眠れない夜もある」と複雑な心中を語っている。
ヤン・ルカン(ニューヨーク大学教授)
2018年にチューリング賞を受賞した「AIのゴッドファーザー」の一人、ヤン・ルカン氏。
Meta Platforms
「人類に脅威をもたらすとの懸念は馬鹿げている」
ヤン・ルカン氏は今日に至るキャリアの中で、機械学習からコンピュータビジョン、ニューラルネットワークに至るまで、180件以上の技術論文もしくは共著を発表してきた。
ニューヨーク大学で教鞭を執りつつ、2013年からはメタ・プラットフォームズ(Meta Platforms)のAI研究責任者も務める。現在の同社における肩書きは、バイスプレジデント兼チーフAIサイエンティストだ。
メタでは、日々の出来事を記録した動画をAIに学習させることで、機械が人間の「常識」を理解できるようにする研究を進めている。人間は受動的な観察に基づいて、世界について驚くほど多くのことを学んでいるというのが彼の考えだ。
ルカン氏は、チューリング賞を共同受賞した前出の2人(ヒルトン氏とベンジオ氏)に比べると、AIの社会的リスクについて楽観的で、かつて「AIが人類に脅威をもたらすという懸念はとても馬鹿げたものです」と述べている。
彼はまた、大規模言語モデルを基盤技術とするChatGPTのような対話型AIは「まだイヌやネコほど賢くない」と論じている。
リー・フェイフェイ(スタンフォード大学教授)
フェイフェイ・リー氏は、グーグルの元バイスプレジデント兼チーフサイエンティストだ。
Greg Sandoval/Business Insider
画像認識研究に貢献する『イメージネット』を構築
スタンフォード大学のウェブサイトに掲載された経歴によれば、リー・フェイフェイ氏は機械学習、ディープラーニング、コンピュータビジョン、認知型(cognitively-inspired)AIに研究の重点を置く。
リー氏は、画像認識分野の研究向けに設計された大規模な画像データベース「イメージネット(ImageNet)」を構築し、それを活用して画像の認識・分類技術の正確さを競う「イメージネットチャレンジ」を2010年から運営する。
学術分野での取り組みと並行して、グーグル(Google)でバイスプレジデント兼チーフ・サイエンティスト(AI/機械学習担当)を務めたり、2022年にイーロン・マスク氏が買収するまでツイッター(現エックス)の取締役会に名を連ねるなど、ビジネス分野にも活躍の場を広げている。
スチュアート・ラッセル(カリフォルニア大学バークレー校教授)
スチュアート・ラッセル氏は世界で最も読まれているAIの教科書を複数、共同執筆している。
JUAN MABROMATA / Staff/Getty Images
「大規模言語モデルは壁に突き当たっている」
スチュアート・ラッセル氏は、機械が日に日に賢くなっていく中で、人間と機械はどのように共存できるのかという問題を、2019年の著書『ヒューマン・コンパチブル(Human Compatible)』を通じて探究した。
彼は同著で、AIがAI自身の目的を追求するのではなく、人間の設定した目的を達成するよう設計すべきと結論している。
ラッセル氏は『Artificial Intelligence: A Modern Approach(邦題:エージェントアプローチ人工知能)』はじめ、多くの大学で採用されているAIの教科書の共同執筆者でもある。
ここ数カ月、ラッセル氏はAIの急速な発展が社会全体にとってどのような意味を持つかについて、自らの考えを率直に語っている。
例えば、6月には、学習用のテキストに限界があるとの視点から、ChatGPTのようなAIツールは「すでに壁に突き当たっている」と警告した。
英ガーディアン報道によれば、翌7月、AIの進歩により、生徒が教室に集まって授業を受ける伝統的な(集団)教育は終わるとも発言している。
ピーター・ノーヴィグ(スタンフォード大学HAIフェロー)
ピーター・ノーヴィグ氏は以前、グーグルのコア検索アルゴリズムグループを率いていた。
Peter Norvig
「悪意ある者たちの攻撃から人々をどう守るか」
ピーター・ノーヴィグ氏は2000年代初頭からグーグルのコア検索アルゴリズム開発グループを率いた後、検索技術の向上を目指すR&D(研究開発)部門のディレクターとして機械翻訳、音声認識、コンピュータビジョンのチームを統括した。
また、カリフォルニア大学バークレー校、南カリフォルニア大学、そして現在はスタンフォード大学HAI(Human-Centered Artificial Intelligence、人間中心のAI)研究所のエデュケーションフェローと、長年にわたって複数の大学で教鞭を執ってきた。
ノーヴィグ氏はInsider編集部の取材に対し、メールで次のようなコメントを寄せた。
「AI研究は非常にエキサイティングな時期にあり、多種多様な一般的タスクで(完璧ではないものの)優れたパフォーマンスを発揮するモデルが登場してきています」
「インターネットと同じように、こうした強力なAIモデルが悪意ある者たちによって利用され、真の情報ではなく偽の情報が広まる危険性があります。現在の研究で重要な分野の一つは、そのような攻撃からどうやって人々を守るかです」
ティムニット・ゲブル(分散型AI研究所創設者)
ティムニット・ゲブル氏は、2020年にグーグルを解雇された後、分散型AI研究所(DAIR)を設立した。
Kimberly White/Getty Images
「外圧がない限り、企業が自主規制することはない」
ティムニット・ゲブル氏は、グーグルの倫理的(エシカル)AIチームの共同リーダーを務め、在籍中には、大規模言語モデルと既存のテキストデータを使った学習プロセスに潜むバイアス(偏り)に関して画期的な研究を発表した。
しかし、彼女の研究は大きな論争に発展し、2020年に彼女はグーグルから解雇されることになった。当時、グーグルはコメントを出さなかった。
グーグルを解雇された直後、ゲブル氏は分散型AI研究所(Distributed AI Research Institute、DAIR)を設立。「世界中に行き渡ったビッグテックの影響力に絡め取られることのない、独立した、コミュニティに根ざしたAI研究の場」を目指している。
彼女は最近、不意の「AIゴールドラッシュ」が過熱し、企業が本来必要とされる自主規制ルールの整備を怠る可能性があると警鐘を鳴らした。
「現状の変更を求める外圧がない限り、企業が自主規制をすることはありません。AI開発には、規制はもちろん、利益追求以外の何らかの動機が必要なのです」
アンドリュー・ン(Coursera共同創業者兼会長)
アンドリュー・ン氏は、AIが社会存亡の危機に対する解決策の一部になると考えている。
Steve Jennings / Stringer/Getty Images
「AIの進化を加速し、問題の解決に役立てた方がいい」
ディープラーニング(深層学習)研究の画期的な成果として知られる「グーグル・キャット・プロジェクト(Google Cat Project)」をけん引したのが、同社内で「グーグル・ブレイン(Google Brain)」チームを創設したアンドリュー・ン氏だ。
ユーチューブ(YouTube)から無作為に1000万枚の画像を抽出し、大規模な多層ニューラルネットワーク(人間の脳の神経回路の構造を数学的に表現したモデル)を使って学習させたところ、事前にネコが何であるかを教えなくても(教師なし)、猫の画像を認識できるようになった。
ン氏はまた、中国の検索大手バイドゥ(百度)でバイスプレジデント兼チーフサイエンティストを務め、AI戦略を推進した。同氏の個人ウェブサイトによると、彼はそのキャリアの中で、機械学習からロボット工学まで幅広いテーマについて200件以上の研究論文を執筆している。
ン氏はオンライン教育の先駆者でもある。彼は2012年にスタンフォード大学のダフネ・コラー教授(当時)とともに、複数の大学の講座をオンライン受講できるサービスを提供する非営利団体コーセラ(Coursera)を設立。
さらにその5年後、機械学習やディープラーニング、大規模言語モデルなどのオンライン学習サービスを提供するディープラーニング(DeepLearning).AIも創業した。
彼は5月、ブルームバーグテクノロジーのインタビューでこう語っている。
「AIには確かにリスクがあると思います。偏見、不公平、権力の集中、有害な言論の生成、雇用の喪失などの現実的なリスクです」
一方で彼は、AIが人類存亡の危機をもたらすとは考えておらず、むしろ人類共通の課題を解決するのに役立つ可能性が高いと述べている。
「人類が1000年後にも生き延び、繁栄することを望むのであれば、AIの進化速度を遅くするよりも、むしろ高速化し、これらの問題の解決に役立てた方がいいと思います」
ダフネ・コラー(Insitro創業者兼CEO)
機械学習を利用した創薬スタートアップ、インシトロ(Insitro)の創業者兼CEO、ダフネ・コラー氏。
Insitro
「AIがもたらすメリットはあまりにも大きい」
コラー氏が2018年に創業したインシトロ(Insitro)は、AIと機械学習を応用してヒトの疾患病態への理解を深め、有意な治療的介入法(療法)を発見しようとしている。
創業前、コラー氏はグーグルからスピンオフしたバイオテクノロジー企業、キャリコ(Calico)の最高コンピューティング責任者(CCO)を務めていた。同社は現在に至るまで、老化や加齢に伴う疾病の生態研究ひいては医薬品開発を目指している。
ハーバード大学とマサチューセッツ工科大学が共同設立した非営利研究機関ブロード研究所のウェブサイトに掲載された略歴によれば、コラー氏は並外れた創造性を持つ研究者や芸術家を対象とするマッカーサー財団の奨学金を受けた「マッカーサー・フェロー(別名、天才助成金)」で、すでに300冊以上の著作がある。
また、前項のオンライン講義サービスを提供する非営利団体コーセラ(Coursera)をアンドリュー・ン氏らと共同で設立した人物でもある。
コラー氏は、AIによって特定の職種に対する需要が減少したり、本物と偽物を見分けることが難しくなったりするリスクはあるが、それを踏まえても、AIがもたらすメリットはあまりに大きいと主張する。
「AIは科学の発展を加速させ、教育を個別最適化し、新たな治療介入法を特定するのに役立ち、その他にも多くのことをもたらすでしょう」
ダニエラ・アモデイ(Anthropic共同創業者兼プレジデント)
「ChatGPT」開発元のOpenAI在籍時の同僚たちとアンスロピックを創業したダニエラ・アモデイ氏。
Anthropic
「将来起こりうる問題にも目を向けなければならない」
ダニエラ・アモデイ氏は、実兄を含む6人のOpenAI元従業員とアンスロピック(Anthropic)を共同創業した。
6人の共同創業者たちがOpenAIを離れた理由についてアモデイ氏は、同社で研究担当バイスプレジデントのポジションにあった兄ダリオ氏(現アンスロピックCEO)が、マイクロソフトからの大規模出資を受け、適切な開発ガイドラインを策定することなく拙速な製品リリースに舵を切る展開を懸念したため、とInsider編集部に語っている。
アンスロピックは、AIの信頼性と安全性の確保にこだわっており、現在招待メンバー限定でAPIを提供している自社開発の対話型AI「Claude(クロード)」は、ソーシャルQ&Aサイトのクオラ(Quora)や統合情報管理アプリのノーション(Notion)など、有力サービスでの(基盤技術としての)採用例が出てきている。
アンスロピックは同社内で「トリプルH」と呼ぶフレームワークに基づいて研究開発を行っている。「Helpful(役立つ)」「Honest(正直)」「Harmless(無害)」の頭文字を取ったものだ。
アモデイ氏は以前、Insider編集部に次のように語っている。
「私たちはみな、いますでに存在する問題を直視し、使いやすくなる方向に技術を進化させるにはどうすればいいかを考え、同時に将来起こりうる問題にも目を向けなければなりません」
デミス・ハサビス(DeepMind共同創業者兼CEO)
デミス・ハサビス氏は、自身が創業したディープマインド(DeepMind)をグーグルに売却した。
Samuel de Roman/Getty Images
「今後数年以内に汎用AIが登場する」
かつてチェスの神童と呼ばれたデミス・ハサビス氏は、ケンブリッジ大学で学士号(コンピューターサイエンス)を、ユニバーシティ・カレッジ・ロンドンで博士号(認知神経科学)を取得し、2016年には英ガーディアンから「AIのスーパーヒーロー」との名誉あるニックネームを与えられた。
同氏は、のちにマイクロソフトが買収したゲーム会社ライオンヘッド・スタジオ(Lionhead Studios、現在は閉鎖)のプログラマーや、ゲームベンチャーのエリクサー・スタジオ(Elixir Studios)の設立と会社清算などを経て、2010年にディープマインド(DeepMind)を創業した。
2014年に同社を4億ポンド(当時のレートで約560億円)でグーグルに売却、そのままディープマインドにとどまって医療や気候変動問題を解決するためのAI開発に取り組んできた。
最近、ハサビス氏は、汎用AI(特定用途・目的に限定されず、多様で広汎なタスクを人間のように自律的に処理実行する人工知能)の実現が間近に迫っていると主張している。
「今後数年のうちに、非常に有能で汎用的なシステムが完成すると思います。AIの進歩が減速することはないでしょう。ただし、汎用AIの開発は科学的手法に基づいて慎重に行われるべきです」
ムスタファ・スレイマン(Inflection AI共同創業者兼CEO)
ムスタファ・スレイマン氏はグーグル傘下入りしたディープマインド(DeepMind)の共同創業者でもある。
Inflection
「多くの人たちは、自分の話を聞いてほしいと思っている」
ムスタファ・スレイマン氏は2022年、リンクトイン(LinkedIn)共同創業者でベンチャー投資家のリード・ホフマン氏らとインフレクション(Inflection)AIを設立した。
ピッチブック(PitchBook)によれば、同社は「全ての人のためのパーソナルAI」を創造すると謳(うた)い、6月にはマイクロソフトをリードインベスターに、ビル・ゲイツやエリック・シュミットらテック界の大物から13億ドルを集めた。エヌビディア(Nvidia)も出資に加わった。
同社が開発した対話型パーソナルAI「Pi(パイ)」は、OpenAIのChatGPTやグーグルのバード(Bard)と同じように大規模言語モデルを基盤技術とする。ただ、Piはコミュニケーションがそれらより自然で、感情的なサポートを重視して設計されている。
スレイマン氏はPiについて、現実の問題に対応できる「中立的な聞き手」だと説明する。
「多くの人たちは、自分の話を聞いてほしいと思っています。自分の言ったことが反映され、自分たちの声が実際に届いていることを実感できるツールを必要としているのです」
ケイト・クロフォード(南カリフォルニア大学教授)
ケイト・クロフォード氏は南カリフォルニア大学アネンバーグ校の研究教授。マイクロソフトの研究者も兼務する。
Kate Crawford
「極端な権力の集中を生み出す可能性がある」
南カリフォルニア大学教授のケイト・クロフォード氏は、マイクロソフトのシニアプリンシパルリサーチャー(上級主席研究員)を兼務し、AIが我々の自己認識や社会のあり方をどのように形成し直そうとしているかを明らかにした『Atlas of AI』の著者でもある。
クロフォード氏は、AI開発の現状について楽観的であると同時に慎重でもある。
「生成AIを公平に利用すると確約している人たちと仕事をするのは、とても刺激的です。しかし、もし私たちがAIの開発に慎重かつ注意深く取り組み、適切な安全規制を講じなければ、極端な権力の集中を生み出し、危険な反民主的効果をもたらす可能性があります」
マーガレット・ミッチェル(Hugging Faceチーフ・エシックス・サイエンティスト)
マーガレット・ミッチェル氏は、複数の大手テック企業でAIプロジェクトの責任者を務めてきた。
Margaret Mitchell
「人間を模倣するのではなく、人間と協働する」
マーガレット・ミッチェル氏は、そのキャリアの中で100件以上の論文を発表し、マイクロソフトやグーグルを含む複数の大手テック企業でAIプロジェクトの陣頭指揮を執ってきた。
2020年後半、グーグルのシニアリサーチサイエンティストとして、ティムニット・ゲブル氏(前出)とともに同社の倫理的(エシカル)AIチームを設立し、共同リーダーを務めていたミッチェル氏は、ゲブル氏を含む複数の研究者らと大規模言語モデルの危険性に関する論文を発表した。
この論文は、研究者たちとグーグル経営陣との意見対立に拍車を掛け、ゲブル氏は同年12月に同社を解雇された。そしてそのわずか数カ月後、ミッチェル氏もグーグルから解雇された。
ミッチェル氏は現在、自然言語処理関連のライブラリやAIコミュニティを運営するハギングフェイス(Hugging Face)で、大規模AIモデルの構築とデプロイに必要なツールへのアクセスを民主化する手法を検討している。
ミッチェル氏は2021年のモーニングブルー(Morning Brew)のインタビューで、責任あるAIをデザインすることの意味についてこう語っている。
「2004年、私はAIを人間の行動に近づけることに興味を持ち、その分野の研究を始めました。それは時が経つにつれ、人間を模倣することではなく、人間の行動を考慮し、補助的・追加的な方法で人間と協働するための研究へと発展しました」
ナヴリナ・シン(Credo AI創業者兼CEO)
クレド(Credo)AIのナヴリナ・シン創業者兼最高経営責任者(CEO)は、AIシステムが人々の潜在能力を引き出す手助けになるかもしれないと語る。
Navrina Singh
「責任あるAIガバナンスが何よりも重要」
ナヴリナ・シン氏が創業したクレド(Credo)AIは、企業が自社で構築したり購入したりするAIシステムを監視・管理し、有効に機能しているか、増えつつある当局の規制を遵守できているか、安全性は確保されているかを一元的に確認できる「AIガバナンス」プラットフォームを開発する。
シン氏はInsider編集部の取材に対して、こう回答した。
「私たちの生活を支えるさまざまなシステムにAIが実装され、自動化されることで、私たち人間がこれまで発揮できていなかった潜在能力が解放される可能性があります」
しかし、現在のAIには、変化する世界に適応するために必要な人間の判断力が欠けていると彼女は主張する。
「AIが文明の基本的なインフラに統合されるにつれ、AIによる自動化と人間の判断力のトレードオフの関係が、極めて現実的な問題になっていきます。
この先、人間の価値観と創意工夫をアルゴリズムの精度と調和させる責任を、私たちは決して放棄してはなりません。責任あるAIガバナンスが何よりも重要となってきます」