グーグルCEOのサンダー・ピチャイ氏と量子コンピューター。
Google/Handout via REUTERS
2021年7月27日、東京大学と日本IBMは、日本・アジア初となる商用量子コンピューター「IBM(R) Quantum System One」の稼働を開始したことを発表しました。
コンピューターは、現代社会を語る上で欠かせないものです。
ただ、「コンピューター」と一口に言っても、その種類はさまざまです。
私たちが日常生活の中で使うようなパソコンやスマートフォンもコンピューターですし、研究機関に設置されているようなとてつもない計算能力を持つ「スーパーコンピューター」もあります。
その中でも、ここ数年の間に耳にする機会が増えてきたのが、「量子力学」の原理を活用した「量子コンピューター」です。
量子コンピューターは世界的にも注目されており、アメリカでは2019年からの5年間で最大13億ドル(約1400億円)、中国では2016年からの5年間で約70億元(約1200億円)と、それぞれ巨額の資金が投じられています(参考)。
冒頭に紹介したIBMをはじめ、グーグルやインテル、アマゾン、アリババといった世界の名だたるIT企業もその研究開発競争に参画しており、人材の奪い合いも起きつつあるのが現状です。
日本でも、2020年に内閣府で「量子技術イノベーション戦略」が立案されると、全国8つの大学や研究機関からなる量子技術イノベーション拠点を整備し、2021年2月にはその発足式典が開催されました。
ここでは、理化学研究所を中心にした産学官の連携によって、量子コンピューターの基礎的な研究からハードウェア・ソフトウェア開発、技術実証、さらには人材育成にいたるまで一気通貫で取り組もうとしています。
なぜ国や企業は、これほどまで量子コンピューターに力を注いでいるのでしょうか。量子コンピューターの実現によって、社会にいったい何がもたらされるのでしょうか?
8月の連載「サイエンス思考」では、量子コンピューターの謎について、理化学研究所・量子コンピュータ研究センター(RQC)のセンター長を務める中村泰信博士に話を聞きました。
なぜいま量子コンピューターなのか?
理化学研究所の中村泰信博士。
取材時の画面をキャプチャ
量子コンピューターへの注目度は、ここ数年の間に少しずつ、しかし着実に高まってきました。
中村博士は、その背景に「技術的な進展があった」と話します。
大きな転換点となったのは、2011年です。
カナダのD-Wave Systemsという企業が、「世界初の商用量子コンピューター」を発表したのです。
当時、D-Waveの発表は世界中で大きな話題となりました。
ただし研究者たちは、この発表を少し冷静に見つめていました。
D-Waveが開発した“量子コンピューター”は、確かに量子力学の原理を応用したものではありましたが、正確には「量子アニーリングマシン」と呼ばれるもので、特定の計算に特化したタイプのコンピューターでした。
汎用的なコンピューターとして期待される「量子コンピューター」とは、似て非なるものだと考えられていたのです。
とはいえ、例えば、量子アニーリングマシンはさまざまな道順から最適なルートを選ぶような「組み合わせ最適化問題」を解くことが得意なように、用途がはまれば、非常に有効なコンピューターになると期待されています。
D-Waveはその後、アメリカの政府系研究機関やグーグルなどの大手IT企業などに装置を納品し、今に至るまでその性能を向上させ続けてきました。
「そうこうしているうちに、徐々に企業の間で『量子』という分野全体への注目度が高まっていったのだと思います。そうして、いわゆる『ゲート型』と呼ばれる、より汎用的な量子コンピューターの研究の機運も高まっていきました」(中村博士)
研究開発レベルから“使える”コンピューターへ
NASAエイムズ研究センターに設置されているD-Waveの量子アニーリングマシン。
REUTERS/Stephen Lam
冒頭で紹介したIBMと東大による量子コンピューターは、D-waveが開発した量子アニーリングマシンとは異なる、「ゲート型」と呼ばれるタイプの量子コンピューターです。
ゲート型は、組み合わせ最適化問題が得意な量子アニーリングマシンと比較して、より汎用的な計算に使える量子コンピューターだと考えられています。
2014年には、グーグルがゲート型の量子コンピューターの研究開発を開始することを発表し、2016年にはIBMが、5量子ビット(後述)と小規模ながらクラウド上で量子コンピューターを無料で利用できるサービスを開始しました。
そして2019年、再び大きな出来事がありました。
グーグルが、自社の量子コンピューターを使って「通常のコンピューターよりも性能が良い(計算速度や精度が良い)ということ」、専門的に言うと「量子超越性」を証明したのです。
この証明に使われた問題は、量子コンピューターに圧倒的に有利な問題でした。また、とりわけ実社会に役に立つような計算でもない、実験的なものでした。
しかしそれでも、量子コンピューターが従来のコンピューターを超えることを実験的に証明したことには、大きな意味がありました。
こうして徐々に、基礎研究のレベルだった量子コンピューターで「何かできそうだ」という機運が高まっていったといいます。
「最近は小規模ではあるのですが、量子コンピューター上で簡単なアルゴリズムを動かせるようになっています。
それを受けて、ソフトウェアやアルゴリズムの研究が進んでいます。だからこそ、産業界の方々もビジネスにも使えるのではないかと注目してきているのだと思います」(中村博士)
日本国内でも、量子コンピューターの研究開発をしている企業はいくつもあります。
たとえば、AIベンチャーであるグリッドでは量子コンピューターを使った「機械学習」のアルゴリズムの研究を進めています。
量子コンピューターとAIの組み合わせによって
「既存のAIよりもさらに高度なAIを実現することができ、複雑な社会問題解決を担う新たなテクノロジにーになると期待しています」(グリッド広報)
と、既存の技術を大きく発展させる可能性から研究投資を進めています。
また、フリマアプリで知られるメルカリでは、量子コンピューターの「応用可能性を拡大すること」を目標に、 アルゴリズムやアーキテクチャの研究を進めています。
メルカリ広報は、Business Insider Japanの取材に対して
「次世代通信のインフラとなる量子技術の将来性を広く考え、世界に目を向けながら、量子インターネットの研究にも力を入れています。量子コンピューターと量子インターネットの併用により、『巨大データの量子情報処理』『セキュリティやプライバシーの抜本的改善』『災害に強い量子情報処理インフラ』のようなことが実現できると見込んでいます」(メルカリ広報)
と、量子コンピューターだけではなく、それらを介した通信技術である量子インターネットの研究にも目を向けています。
「これらは弊社の事業の競争力にとっても、また、弊社が大切にする安心・安全・公正な取引環境の整備にとっても重要なことです」(メルカリ広報)
このように、「量子コンピューターの研究」といっても、グーグルやIBMのように量子コンピューターそのもの(ハードウェア)からサービスまで一気通貫に作ろうとしている企業から、グリッドのように既存の事業の先にある技術として力を注いでいる企業、メルカリのように将来的な通信網への活用も見越して幅広くに取り組む企業など、関わり方はさまざまです。
量子コンピューターでは「2つの状態が同時に成立する」
アメリア・カリフォルニア州サンタバーバラの研究所で量子コンピューターを前にするグーグルのCEOサンダー・ピチャイ氏と、量子コンピューター研究チームのダニエル・サンク氏(2019年10月に撮影)。
Google/Handout via REUTERS
「既存のコンピューターでは計算できないような複雑な課題を解くことができる」
量子コンピューターの研究開発をしている企業は、必ずと言っていいほどそう口にします。
なぜ、そんなことが可能なのでしょうか?
そのカギは、量子コンピューターに使われる「量子ビット」と呼ばれるデバイスにあります。
いわゆる普通のコンピューターでは、情報は「bit(ビット)」と呼ばれる単位で表されます。ビットは「0」と「1」のように2つの状態に区別でき、その組み合わせによってあらゆる情報が表現されています。
例えば、1ビットであれば、「0」と「1」。2ビットあれば、「00」「01」「10」「11」と4つのパターンが可能です。
2ビットの情報量で数字を表現しようとすると、「0=00」「1=01」「2=10」「3=11」と対応させることでができます。それ以上の数字を表現するには、さらに多くのビットが必要になるわけです。
コンピューターの回路の中で、この「0」と「1」は、電気のオン/オフの違いによって物理的に区別されています。例えば、半導体の特定の部位に電気が溜まっていれば「1」。電気が溜まっていなければ「0」という具合です。
そう考えると、1ビットの状態は、0か1のどちらか一方の状態にしかなりません。
「量子コンピューターでも、同じように0と1の2つの状態を利用して情報を処理します。しかし量子コンピューターでは、『重ね合わせ状態』という0と1が同時に成立している量子力学の特別な状態を利用します」(中村博士)
量子力学では、あらゆる現象が0と1のようにはっきりと区別されるのではなく、確率的に表現されています。
MR.Cole Photographer/GettyImages
私たちが目にする世界では、「電気が溜まっている状態」と「電気が溜まっていない状態」のように、2つの相反する状態が同時に成立することはありません。
しかし実は、非常に小さな、量子力学が適用されるようなミクロの世界では、その限りではないことが知られています。
「こういった状態を実現できるのが『量子ビット』です。量子ビットを使っていることが、普通のコンピューターと量子コンピューターの最も違う点です」(中村博士)
通常のコンピューターでは、半導体上の電気のオン/オフによって0と1を区別していると説明しましたが、量子コンピューターではその役割を量子ビットが担います。
量子ビットの候補となるデバイスはさまざまで、超伝導回路や原子そのものなどがあります。
すでに企業の間では量子コンピューターが試作されていますが、どのような量子ビットが量子コンピューターを実現する上で最も有効なのかはまだはっきりとしておらず、量子ビットに関する基礎研究が続けられています。
「量子ビット」のすごみ
16量子ビットのチップ。
提供:理化学研究所
では、量子ビットを使うと、いったい何ができるのでしょうか。
先ほど、2ビットで表現できる情報のパターンとして「00」「01」「10」「11」の4パターンの例を挙げました。
仮に、何らかの計算問題への入力がこの4つのうちのどれかだったとします。
従来のコンピューターで計算するときには、大雑把に言うとこの4パターンを一つずつ確かめて正答を導き出しているといえます。
数が少なければそれほど時間はかかりませんが、ビットの数が10個、100個、1000個……と、どんどん増えていくと、その計算量は指数関数的に増えてしまいます。
一方、同じ2ビットの情報でも、0と1が同時に成立している量子ビットを使えば、「00」「01」「10」「11」の4つすべてのパターンについて「同時に」確認することができます。
これが、量子コンピューターが優れた性能を示す理由の一つだと考えられています。
つまり、通常のコンピューターではとても計算できないような問題に直面したとしても、量子コンピューターでは無数の計算結果を同時に確認できるため、指数関数的に計算量が増えるとは限らない。計算時間を短くできるというわけです。
量子コンピューターが話題になる際には、必ずと言っていいほど「通常のコンピューターよりも計算が速い」と表現されますが、中村博士は「言うなれば、すごく効率の良い計算が可能ということでしょうか」と説明します。
「簡単な問題であれば、普通のコンピューターでも十分計算することはできます。
ところが、いくらスーパーコンピューターを使っても、最適化問題や、材料の構造や性質を予測する計算、化学反応をシミュレーションして創薬につなげようとする計算などは、少し規模が大きくなると計算量が多すぎてすぐに計算できなくなってしまいます。
そういうところにこそ、量子コンピューターのありがたみが発揮されると期待しているわけです」(中村博士)
量子コンピューターで何ができるかはまだ分からない?
metamorworks/Shutterstokc.com
2つの状態が同時に成り立つ「量子ビット」。
その性質を利用する量子コンピューターでは、これまでにできなかった計算が可能になりそうだという感覚が、多くの研究者の間で共有されています。
一方で、実際にどのような計算ができるのかは、実はまだはっきりとは分かっていません。
というのも、そもそもコンピューターとしての仕組みが異なるため、どんなアルゴリズムで何ができるのか、未知の領域が多いのです。
中村博士によると、最近では量子コンピューターのコードを簡単に書けるツールも登場し始めており、ハードウェアの研究開発をする人だけでなく、幅広いエンジニアが量子コンピューターを動かせるようになりつつあるといいます。
だからこそ、IBMのクラウドサービスなどが登場し、実際に試してみる企業も増えてきたわけです。
「ただし、正直言って今の段階では、ビジネスレベルで何か大問題を解決できるようなことはほとんどできないと思います」(中村博士)
グーグルが量子超越性を証明した際に使われた量子コンピューターで使われている量子ビットの数は「53量子ビット」。IBMと東大が2021年7月に発表した量子コンピューターの量子ビットは「27量子ビット」です。
これでは取り扱える情報量が少なすぎるため、まだまだ研究現場で実際の問題を解決する役に立つ計算はできません。
「今後量子ビットがもっとたくさん使えるようになったときに、いったいどのような計算ができるようになるのか。多くの企業が、そのポテンシャルを信じて参入してきています」(中村博士)
昨今産業界に大きな革新を与えているAIの技術は、「深層学習」(ディープラーニング)という手法が考案されたことで、画像AIの技術を中心に飛躍的な発展を遂げました。
同じように、少ない量子ビットながらも、何か画期的なことが実現できるアルゴリズムが考案された場合に、量子コンピューターの活用が一気に花開く可能性があるといえます。
「今はみんなそういう『キラーアプリ』のようなものを探している段階です」(中村博士)
量子コンピューターはいったい何が得意で、何が苦手なのか、これから徐々に分かってくるでしょう。
その結果、量子コンピューターが本当の意味で実用化された時代には、量子コンピューターと通常のコンピューターがそれぞれ得意な計算を分担して1つの答えを出すようなこともあるかもしれません。
「100万量子ビット」がマイルストーン
稼働を開始した「IBM® Quantum System One」。27量子ビットとまだ小規模ではありますが、ここで何ができるのか探索が進められることで、将来量子コンピューターで何ができるのか、少しずつ理解が進んでいくはずです。
提供:IBM
量子コンピューターとして組み込める量子ビットの数は、現状、数十個程度に留まります。
中村博士は「100万量子ビットがひとつのマイルストーンです」と指摘します。
実際、グーグルは2029年までに、商用利用できる100万量子ビット規模の量子コンピューターを実現しようと目標を掲げています。
1000量子ビット規模に到達すると、量子コンピューターの課題とされている「計算上の誤り(エラー)をチェックするアルゴリズム」の実証が可能になり、さらに1000倍ほど集積化が進むと(1000量子ビットの1000倍で100万量子ビット)、ある程度大きな問題を解けるようになるのではないかと考えられているのです。
現状の量子コンピューターでは、非常にエラーが多い環境でアルゴリズムを動かしています。大規模な量子コンピューターを実用化するためには、このエラーをチェックする機能の実現が必要不可欠です。
ただし、100万個もの量子ビットを搭載した量子コンピューターを作るのはそう簡単ではありません。
単純に、既存の技術で100万量子ビットが搭載されたチップを作れたとしても、そこに送る信号の制御や配線の問題、さらに、どう低温に保つかといったエンジニアリング上の問題があります。
だからこそ、量子ビットとしてどんなデバイスを使うのが適切なのか、基礎研究が必要なわけです。
しかし、だからといってこの目標が非現実的だというわけではありません。
冷静に考えてみると、世界に初めて電子計算機(エニアックマシン)が誕生したのは1946年のこと。
第二次世界大戦直後に、コンピューターがあらゆる場面で使われている現代の社会の姿を想像できていた人は、ほとんどいなかったのではないでしょうか。
当時に比べて技術革新のスピードが増していることを考えると、この先10年、20年の間に、量子コンピューターが一気に花開いたとしても、おかしくはないのかもしれません。
(文・三ツ村崇志)