Turingの研究開発工場「Turing Kashiwa Nova Factory 」。
撮影:三ツ村崇志
「黄色いコーンに向かって、進んでください」
車内に取り付けられたマイクに向かってそう話しかけると、少し間を置いた後にゆっくりとハンドルを切りながら自動車が進み始める。
車の前方にいる交通誘導員が「止まれ」のジェスチャーをすると、それを認識して停止する。ジェスチャーを無視して進むように再度話しかけると、再びゆっくりと動き出す……。
これらの動きを実現する上で、人がアクセルやブレーキを踏んだりハンドルを切ったり、なにか操作することはまったくない。全て「自動」で動く。
2025年完成予定の完全自動運転車のプロトタイプ。車両デザインは生成AIのStable Diffusionを使って作成した。
撮影:三ツ村崇志
「人の言葉を理解して、目的地に運んでくれる」
まるでSF映画で見るような未来のモビリティにつながる可能性を秘めた自動車が、そこにはあった。
自動運転車を開発・販売を目指すTURINGは6月14日、千葉県柏市内に開設した同社の研究開発用の工場をメディア向けに公開。最新の事業戦略と共に、生成AI・ChatGPTなどにも用いられている大規模言語モデル(LLM)を搭載した自動運転車のデモ車への体験会を開いた。
自動車から「ハンドルが消える」世界
「私は、車のハンドルが消えるのが一般的になってくると思うんです」
チューリングの山本一成代表はこう話す。
現状、車を運転したり購入する人はすべて「免許を持っている人」。ただ、山本代表は
「運転したい人ではなく『移動したい人』というのはたくさんいる。未就学児や高齢者、ハンディキャップのある人……あるいは、そもそも運転をするのが怖い人っていうのも世界にはたくさんいます。
そういった人の移動を支えるためにも、ハンドルがなく、誰もが手軽に移動できるもの(モビリティ)を人類は最終的に作らなきゃいけないはずです。
そういう動きが、日本からでていなくて、私はすごく悲しい気持ちになっています。だからこそ我々はこの会社をやっています」
と思いを語る。
Turing代表の山本一成さん。
撮影:三ツ村崇志
チューリングは2021年に、山本代表と共同創業者の青木俊介CTOが創業したスタートアップだ。
2022年7月にはシードラウンドで10億円の資金調達を発表。2023年1月には1台限りではあるものの、国内の法規制に対応した「レベル2相当」の自動運転システムを搭載した自動車の販売を実現した。
今後、2023年には自社開発のEVでの走行。2024年に自社EVを100台販売。これだけでもかなり難しいチャレンジのように感じるが、さらに2025年には完全自動運転車のプロトタイプを完成させ、2029年にはレベル5の自動運転を達成を目指す。2030年までに、1万台の販売を実現するのが目標だ。
「ドライバー」と「ナビゲーター」の役割分担で一つのシステムを構築
6月14日には、研究開発用の工場「Turing Kashiwa Nova Factory」を公開し、冒頭で紹介したLLM(大規模言語モデル)を搭載した自動運転車のプロトタイプも発表した。LLMは、現時点ではOpenAIが提供するGPT-3.5のAPIを活用している。
チューリングは、もともと自動車の前方に搭載したカメラなどのセンサーを用いた自動運転車を開発していた。カメラで周囲の様子を撮影し、走行データを学習した人工知能(AI)がその画像データを読み込むことで「状況を認識」。白線や前方車両との距離や速度などを加味して車の進路を決定し、それに沿って走行するようにハンドルを制御するシステム自体は、ある程度構築できていた。
筆者も過去に同システムが搭載された自動運転車に試乗経験がある。「自動で道を走る」という行為自体はそこまで違和感なく実現できていたように感じた。
今回新たに発表したLLM搭載車でも、カメラなどの既存のセンサー類は必要だ。ただ、LLMを活用することで、マイクで入力した音声をプロンプト(命令)として認識。カメラを通して見える「世界」の状況を把握した上で、音声入力への「回答」を車の動作へとフィードバックする。
LLM搭載車の車内の様子(左)。音声入力をすると、LLMがカメラを通して見えている世界の状況を踏まえて回答。車の動作へとフィードバックする(右)。
撮影:三ツ村崇志
青木CTOは2つのシステムの関係を、同じコースのタイムを競う車の「ラリーカーレース」のドライバーとナビゲーターの関係性に例えてこう話す。
「ドライバーは、目の前の障害物を避けるとか、いわゆる反射神経でできることをやっています。一方ナビゲーターはGPSや地図、他の車の位置や燃料の減り具合などを見て指示を出す。このコンビが1つのシステムとして、コースを走破していくわけです。完全自動運転を実現する上で、これは一つの解になるかもしれないと思っています」(青木CTO)
瞬間的な状況判断を担うドライバーは、チューリングがこれまで培ってきたカメラなどのセンサーを通じた制御モデルに相当する。そして、複雑な情報を把握しながら指示を出すナビゲーターが、今回発表したLLMによる制御モデルだ。チューリングは、この2つの制御モデルを組み合わせたシステムを特許として出願。「チューリングが完全自動運転を実現するための礎となる仕組みである」としている。
「既存の自動運転が一掃されるかもしれない」
Turingの共同創業者兼CTOを務める、青木俊介さん。
撮影:三ツ村崇志
青木CTOは、大規模言語モデル(LLM)を自動運転に活用することについて
「LLMは、いわゆる大きな基盤モデルなんです。チューリングの創業時から、大きな基盤モデルを作って、画像や音を入力すればAIで一発で車を動かせるのではないかという仮説がありました」
と創業当時からイメージしてきた思想とマッチしていたと話す。
実は、ChatGPTなどの生成AIが広がってきた段階で、山本代表と危機意識を共有していたという。
「もしこれで(LLMを使って)自動運転を一発で動かせるようだったら、自動運転の色々なプレーヤーが一掃されてしまう可能性がある。だったらまずやってみようと、社内でLLMハッカソンなどをやるなど、LLMを使って会社の技術開発をスピードアップさせる方法を考えていたんです」
チューリングがこれまで研究開発してきた、車載カメラで得られた画像データと運転の制御データの組み合わせたデータを学習したAIでは、「どこに道があるか」や「信号は何色か」などの比較的簡単な状況を認識して自動運転することはできていた。ただ、青木CTOは
「(この方法だと)複雑な状況は分からなくて、人間が乗っているように思えなかった。LLMは、そういうこと(画像データをもとにした制御と同じようなこと)はできないんだけれども、まだ人間が乗って、さも考えているようなことができるんです」
と語る。
既存の手法で特定の目的地に運んでくれる自動運転車を構築しようとすると、例えばナビゲーションでルートを設定して、その過程で周辺の環境や歩行者などを認知しながらゆっくりと進んでいく必要がある。ただ、「人間ってそういう感じなんだっけ」(青木CTO)と 。
「人間ってコンテキストを読んでいるんです。例えば、パーキングに入った時にも、金曜の午後6時なのか、日曜の3時なのかでどこに駐車しようかちょっと考えたり。混んでいるから少し遠目の場所なら入れるところに入ってしまおう……とか」(青木CTO)
「このお店に行きたいから、近くの適当な駐車場に駐車して」
という、「ふわっとした」複雑な指示にこたえることは、既存の手法だと難しい、ということになる。
実際、今までの研究開発を少しずつ積み上げていっても「完全運転にはちょっと到達しないかもしれないということが見えてきていた」(青木CTO)。
そんな中出てきたのが、ChatGPTをはじめとした生成AIだった。
チューリングでは、2029年に完全自動運転の実現を掲げており、その後2030年までに1万台の販売を目指している。当然そこには、LLMを活用した自動運転車を導入したい考えだ。
ただ、青木CTOが、既存のLLMがそのまま自動車に搭載されることはないと指摘する。
「(現状だと)反応速度が遅すぎるとか、車に最適化されてないとか……。計算機が自動車に乗らないっていうのもあるので、小さくしたり反応速度や計算速度を速くしたりする必要があります」
現状のプロトタイプは、前出のとおりOpenAIが提供するGPT-3.5のAPIを活用しているというが、最終的にはクラウドを介さないものを目指す。また、LLMを制御するコンピューターを自動車に搭載するとなると、当然その分の消費電力もばかにならない。
すでに世界では車載用のリチウムイオン電池の獲得競争が加熱していることを考えると、「今一番バッテリーが厳しいなと思っています」(青木CTO)と課題も指摘した。