「人類がAIを制御するために必要なこと」オックスフォード大学「人類の未来研究所」所長

AIイメージ画像

shutterstock

AI(人工知能)の驚異的な進展は社会と人間のあり方にどんな影響を与えるのか。

筆者は2017年からから2018年にかけて、世界各地の「知の巨人」たちのもとを訪ね、来たるべき未来について対話を重ねてきた。知の巨人8人へのインタビューは『未来を読む AIと格差は世界を滅ぼすか』(6月17日刊、PHP新書)として出版される。

その一部を連載としてお届けする3回目は、人間以上の知能をもつ「スーパーインテリジェンス」の登場を予測するオックスフォード大学教授のニック・ボストロム氏。

スーパーインテリジェンスの登場はいつか

——ご著書『スーパーインテリジェンス』のテーマである、人間と同等以上の知能をもつ「スーパーインテリジェンス」については、いつから考え始めたのですか。

ボストロム:物心がついたときから、といっても過言ではありません。将来スーパーインテリジェンスが出現すれば、恐らく人類史上最大の危機になるだろうと考えていました。私は1990年代半ばくらいからスーパーインテリジェンスについて考察していて、それをテーマにした本も執筆していました。

—— AI研究の中で、とりわけ何に関心をおもちなのでしょう?

ニック・ボストロム オックスフォード大学教授

ニック・ボストロム オックスフォード大学教授

撮影:大野和基

ボストロム:基本的にはAIの能力全体に関心がありますが、AIをいかに安全に運用するか、ということです。AIに自分がしてほしいことを何でもやらせる方法には、インテリジェンスをもっと注ぎ込んでも良いと思っています。

つまり、人間が持つ価値観にAIが足並みをそろえるようになることです。われわれはそうしたことを可能にするアルゴリズムを、より深く理解しようと研究しています。

——実際にスーパーインテリジェンスが現れるまでには、どれくらいの時間がかかると思いますか。

ボストロム:スーパーインテリジェンスの「到来日」については、かなり広がった確率分布の視点から見るべきです。明確なことは言えませんが、著書『スーパーインテリジェンス』を書いてから(英語版は2014年9月出版)、私の予想していたタイムラインは縮まりました。ここ数年のディープラーニング(深層学習)の進歩は目まぐるしく、当初の想定よりかなり早まっています。

——スーパーインテリジェンスのコントロールの問題についてお聞きしたい。AIが一度スーパーインテリジェンスのレベルに達すると、人類をコントロールするパワーをもちますね。

ボストロム:非常にパワフルなものになると思います。ゴリラではなく、今人類が地球上で最も強いように……。ゴリラよりも、われわれの方が知能に優れ、テクノロジーを発明し、複雑な政治組織を形成し、将来の計画を立てることができます。

現在のゴリラと人間の関係同様、人間よりもはるかに頭がいいスーパーインテリジェンスが未来を形成する立場になる可能性があります。

だからAIの未来をつくるときに、スーパーインテリジェンスの好みがわれわれの好みと確実に一致するように設計した方がいいのです。スーパーインテリジェンスの思考をわれわれの価値観や意思の延長として形成できるかが鍵となるでしょう。

テクノロジーを制御できるか否かの分岐点

——いかなる科学技術も諸刃の剣です。進歩による恩恵の方が害より大きくても、その害が危険を及ぼすのであれば、われわれは開発を止める、あるいは遅らせるべきだと思いますか?

AIが人の知能を超える

AIの進歩は著しく、人の知能を超えつつある。

shutterstock

ボストロム:思いません。さまざまなテクノロジーについて、ケースバイケースで見なければいけないと思います。予防接種は圧倒的にプラス面が多い一方、化学兵器については多くの人がマイナス面を強調するでしょう。

さらに重要な問いは、テクノロジーが早く開発されるか遅れて開発されるか、ということです。例えば、破壊的なテクノロジーXと、それに対して保護的なテクノロジーYがあるとします。XとYどちらが先に開発されるかで、テクノロジーを制御できるかが変わってきます。

——近い将来、あるいは遠い将来、意図しない結果が出てくるかもしれません。どうしたらいいのでしょうか。過ちが起きたときは、「時すでに遅し」かもしれません。

ボストロム:AIについて言うと、われわれがフォーカスしているのは、AIが開発されたあとに影響を与えるということではまったくありません。われわれがやろうとしていることはいくつかあります。一つはAIの倫理観の整合性というフィールドの研究を進めていくことです。つまり、AIを本当に賢くする方法を探る研究をもっと奨励していく。その賢いAIが、われわれが意図していることをいかにして確実にできるのか。そうした方向に導くための研究です。

また、AI開発にとってどういう社会状況が理想的なのか、探ることもできます。戦略的な問いは何か。われわれがAIをきちんと制御できるとして、AIが一つの特定の会社や国に対してではなく、人類すべての恩恵になるように使われるように、異なる重要なアクターが、より協力的な環境を作るためには、先だって何ができるか。こうしたことを考えていくのです。

アップルはAI研究で方向転換をした

—— AIを危険な方向にもっていく研究を取り締まるべきだと思いますか。

ボストロム:AIを開発している人たちと同時に、その安全性をいかに担保するかについて考えている人たちがいます。両者は同じチームであるべきだし、同じ人物だと理想的です。この2つの研究を、それぞれ敵対する陣営にやらせてはいけません。

私たちの研究所では、人類の公益のために実行できる方法を考えています。最終のAIを構築する特定のグループに、人類のために役立つように方向付ければ、誰もがwin-winのシナリオになります。競争の激しさが開発の最終段階で緩やかになることもメリットの一つです。

もし世界中の50のAI開発グループが互角に競争しているとすると、その競争における安全性は最低レベルのものだといわざるを得ない。セーフガード(安全装置)を開発して自らのシステムをテストする時間を取っていたら、ほかのグループが追い越して先に目的を達成してしまうからです。

どのチームが開発しようと、最後に半年なり1年なり踏みとどまって、安全性をチェックする機会があると望ましいでしょう。そのグループが勝つとみんなが得をすると感じれば、実現性は高まるでしょう。

——AIの研究を密かに行い、抜け駆けをする人たちも現れるのでは?

Apple社のロゴ

アップルの研究者たちは研究成果を発表するようになってきている

shutterstock

ボストロム:AIはもともとオープンな研究分野であり、近年、透明性がさらに増しています。アップル社は数年前まで、競合企業の意表を突くために閉鎖的なAI研究を進めていました。アップル社のAI研究者は、自らの研究成果を論文として発表することも制限されていた。

そうすると、優秀な研究者を採用するのが困難になることに彼らは気づきました。誰しも自らの成果を世に出したいと思うものです。しかし、アップル社はそれまでの方針を変え、現在はオープンな文化が根付きつつあります。AIがさらに戦略的に重要だと企業に認識されれば、ますます透明性は増していくでしょう。

(聞き手・文:大野和基)


ニック・ボストロム:1973年、スウェーデン生まれ。オックスフォード大学「人類の未来研究所」所長、「戦略的人工知能研究センター」所長。分析哲学のほか、物理学、計算論的神経科学、数理論理学を研究する。米『フォーリン・ポリシー』誌の「世界の頭脳100人」に2度選出。英『プロスペクト』誌の「世界思想家」で、全分野でのトップ15および分析哲学では最高のランクに最年少で選出。著書に『スーパーインテリジェンス』など。

大野和基:1955 年、兵庫県生まれ。1979 ~1997 年在米。コーネル大学で化学、ニューヨーク医科大学で基礎医学を学んだ後、現地でジャーナリストとしての活動を開始、国際情勢の裏側、医療問題から経済まで取材・執筆する。帰国後も頻繁に渡米し取材、アメリカの最新事情に精通している。編著書に『知の最先端』『英語の品格』、訳書に『そして日本経済が世界の希望になる』(ポール・クルーグマン著)など多数。

ソーシャルメディアでも最新のビジネス情報をいち早く配信中

BUSINESS INSIDER JAPAN PRESS RELEASE - 取材の依頼などはこちらから送付して下さい

広告のお問い合わせ・媒体資料のお申し込み