クラウドから「エッジ」へ——NVIDIA軸に始まった半導体業界のAI戦争

AIや人工知能といった言葉を聞かない日はないというぐらい、AI・人工知能は社会的に大きな注目を集めている。過去2度の盛り上がりに比べ、「今回こそ本物」と言われている背景には、コンピュータの計算手法であるディープラーニング(深層学習)にある。

NVIDIAが2016年4月に開いたGTC(GPU Technology Conference)で展示した「DGX-1」

NVIDIAが2016年4月に開いたGTC(GPU Technology Conference)で展示した「DGX-1」。同社の急成長の原動力になっている

笠原一輝

ディープラーニングでは、人間の脳の仕組みであるニューロンを模したようなDNN(ディープニューラルネットワーク)と呼ばれるモデルに大量のデータを読み込ませて学習させることで、文字通りコンピューター自身が自ら学び、人工知能を作り上げていく。プログラマーがプログラムを作り上げていくという従来型のAIと比較すると、DNNが学習する形の今のAIは、ある機能に特化すれば人間に近い知能を実現することが現実に可能になりつつある。

その代表例は、ユーザーのスマートフォンを利用してアクセスできる音声認識や言語翻訳の機能だ。Google翻訳が2016年秋のアップデートで非常に自然な翻訳が可能になったのは、ディープラーニング技術の適用によるものだ。このほかにも、AppleのSiri、Google音声検索、MicrosoftのCortanaなどの音声認識機能が急速に便利になっている背景には、ディープラーニングを利用したAIの普及がある。

1400万円でも爆発的に売れたNVIDIA製品

ディープラーニングの手法を活用したAIの実現にあたり、重要なのはクラウドやデータセンターにあるサーバーの処理能力を引き上げることだ。ディープラーニングを利用するには、DNNに巨大なデータ(いわゆるビッグデータ)を読み込ませて学習させる必要があるのだが、その学習には膨大な時間がかかる。ある演算に数日から数週間かかるという事例が山ほどある。その学習時間を短くするために、少しでも高速な半導体を供給してほしい——これがAIを開発するソフトウェアベンダーや開発者側からの切実なニーズだ。

ディープラーニング向けの半導体市場で先行してきたのは、GPUメーカーのNVIDIA(エヌビディア)だ。NVIDIAの販売しているTeslaブランドのGPUは、膨大な量の並列演算が得意という特徴を生かして、従来使われていたCPUに比べて一桁違う性能を発揮する。AIを開発するソフトウェアベンダーは、競ってGPUを搭載したサーバーを購入している。 昨年NVIDIAが発売した「DGX-1」というGPUサーバーは約1400万円というサーバーとしては破格の高価格であるのに、飛ぶように売れているという。その人気を反映して、一昨年の段階では30ドル程度に過ぎなかったNVIDIAの株価は、17年4月現在100ドル前後で推移しており、この数年で一挙に世界から注目される企業になった。

他のメーカーもこの動きに追随を始めている。世界最大の半導体メーカー、インテルは今年リリース予定のGPU対抗次世代製品でディープラーニングへの最適化を進めることを発表しているほか、ディープラーニングの学習だけに目的を絞ったアクセラレータを今年中に発売すると発表している。

AIを強化するインテルも、16年11月にサンフランシスコでAIのイベントを開催している

AIを強化するインテルも、16年11月にサンフランシスコでAIのイベントを開催している

笠原一輝

今後、ディープラーニングを利用したAIのアプリケーションは、スマートフォンのような一般消費者向けだけでなく、自動運転、ロボットなど様々な用途に広がっていくと考えられている。需要は増える一方で、今後も半導体メーカーはラインナップを拡充していく。

最も注目される分野であるクラウドやデータセンターにおけるAI向けの半導体だが、その裏では対局にある、いわゆる〝エッジ〟側のAI化も進展しつつある。エッジとは英語で先端という意味だが、クラウドの反対側にあるという意味で使われており、PC/スマートフォン/タブレット、ロボット、自動車といった〝クラウドに接続して利用する端末側〟のことを意味している。

自動運転に欠かせない〝エッジ〟で処理するAI

現在のAIの構造では、クラウド側にAIエンジンが置かれ、データをエッジ側からアップロードして処理する仕組みになっている。Siriのような音声認識がその端的な例だ。エッジ側になるスマートフォンで音声をキャプチャし、そのデータをクラウドにアップロードして、クラウド側でAIを利用して音声を認識し、結果をスマートフォンに返すという仕組みになっている。Siriなどのスマートフォンの音声認識で、やや待たされることがあるのはこのためだ。

音声認識では単にユーザーが待てばいいが、これが自動運転だったらどうだろうか。前方に物体があったときに、AIの目となるカメラで撮影して、そのデータをクラウドにアップロードして処理→その応答を待つ……などとやっている間に車はその物体と衝突してしまう。それが人間や大きな物体だったら命にかかわる事故になってしまう。 また、クラウド型のAIでは、データ転送量をいかに少なくするかも大きな課題だ。

次世代の自動運転自動車やロボットなどでは、5Gなどのセルラー回線を経由した通信が考えられている。例えば、自動運転車が収集する周辺環境センサーのデータの中には、複数の車載カメラが撮影している動画データも含まれる。それを生データのままクラウドにアップロードすれば、あっという間にネットワークが負荷に耐えられなくなる。 このため、エッジ側である程度の処理(特別なインシデントなどがあった箇所だけアップロードするなど)をした上で、必要な部分だけをクラウドへアップロードする、というような仕組みが必要になると考えられる。

半導体メーカーは、エッジ側にもディープラーニングの手法を利用するAIの搭載が必要だと考えており、このトレンドに対応すべく製品を拡充している。

エッジとクラウドの概念図

笠原一輝

クラウド/データセンター向けのディープラーニングソリューションで先行しているNVIDIAは、エッジ向けのAI用SoC(システム・オン・チップの略。CPUやGPU、モデムといった多機能を1つにまとめた半導体チップのこと)として、Tegraシリーズを拡充している。現行製品はParker(パーカー)のコードネームで知られる製品で、クラウド/データセンター向けと同じ構造のGPUを半導体チップに内蔵しており、それを利用してエッジ向けとしては高いAI性能を実現していることが特徴だ。さらにNVIDIAはその次世代製品として大きく演算性能を引き上げたコードネーム:Xavier(エグゼビア)を計画しており、AI自動運転車を1チップで実現できるとアピールしている。

もちろんNVIDIAの競合他社もソリューションを拡充している。スマートフォン向けSoCの王者であるQualcomm(クアルコム)は、今年の1月に発表した同社の最新製品となる「Snapdragon 835」で、新たなヘテロジニアスコンピューティング(異なる種類のプロセッサーを組み合わせて統合的に処理すること)環境を導入すると明らかにしている。これは、Snapdragon 835に内蔵されているCPU/GPU/DSPと呼ばれる種類が異なるプロセッサをまとめて利用することで、エッジ側でも高いAI性能を実現する仕組み。Qualcommは、この仕組みを発展させていくことで自動運転やロボットのAIなどを実現していく計画だ。

Snapdragon 835を利用すると、CPUだけでなくDSPも利用してディープラーニングの機能を実装することができる

Snapdragon 835を利用すると、CPUだけでなくDSPも利用してディープラーニングの機能を実装することができる

笠原一輝

自動車向けの半導体に強い日本のルネサスエレクトロニクスは、「R-Car V3M」を4月に発表している。R-Car V3Mは、画像認識アクセラレータが搭載されており、ディープラーニングの推論という処理(たとえば画像認識の場合、学習済みAIを使って、被写体が何なのかを判別させること)を、わずか1ワットという低い消費電力で実現できる。 各社ともさまざまな形でエッジ側でもAIを実現するソリューションを用意しつつあり、近未来にAIを利用した自動運転やロボットなどが本格的に実現できる環境が整い始めた。

既に自動運転やロボットを実現できない技術的な制約はなくなりつつある。あとは法整備といった人間側の準備を待つ段階なのである。


笠原 一輝 フリーランスのテクニカルライター。CPU、GPU、SoCなどのコンピューティング系の半導体を取材して世界を回っている。PCやスマートフォン、ADAS/自動運転などの半導体を利用したアプリケーションもプラットフォームの観点から見る

関連記事

ソーシャルメディアでも最新のビジネス情報をいち早く配信中

Recommended

Sponsored

From the Web

BUSINESS INSIDER JAPAN PRESS RELEASE - 取材の依頼などはこちらから送付して下さい