OpenAIの「GPT-3.5」を自動運転に組み込んだ車両が公開。AIベンチャー・Turingの野望

Turingの研究開発工場「Turing Kashiwa Nova Factory 」。

Turingの研究開発工場「Turing Kashiwa Nova Factory 」。

撮影:三ツ村崇志

「黄色いコーンに向かって、進んでください」

車内に取り付けられたマイクに向かってそう話しかけると、少し間を置いた後にゆっくりとハンドルを切りながら自動車が進み始める。

車の前方にいる交通誘導員が「止まれ」のジェスチャーをすると、それを認識して停止する。ジェスチャーを無視して進むように再度話しかけると、再びゆっくりと動き出す……。

これらの動きを実現する上で、人がアクセルやブレーキを踏んだりハンドルを切ったり、なにか操作することはまったくない。全て「自動」で動く。

2025年完成予定の完全自動運転車のプロトタイプ。

2025年完成予定の完全自動運転車のプロトタイプ。車両デザインは生成AIのStable Diffusionを使って作成した。

撮影:三ツ村崇志

「人の言葉を理解して、目的地に運んでくれる」

まるでSF映画で見るような未来のモビリティにつながる可能性を秘めた自動車が、そこにはあった。

自動運転車を開発・販売を目指すTURINGは6月14日、千葉県柏市内に開設した同社の研究開発用の工場をメディア向けに公開。最新の事業戦略と共に、生成AI・ChatGPTなどにも用いられている大規模言語モデル(LLM)を搭載した自動運転車のデモ車への体験会を開いた。

自動車から「ハンドルが消える」世界

「私は、車のハンドルが消えるのが一般的になってくると思うんです」

チューリングの山本一成代表はこう話す。

現状、車を運転したり購入する人はすべて「免許を持っている人」。ただ、山本代表は

「運転したい人ではなく『移動したい人』というのはたくさんいる。未就学児や高齢者、ハンディキャップのある人……あるいは、そもそも運転をするのが怖い人っていうのも世界にはたくさんいます。

そういった人の移動を支えるためにも、ハンドルがなく、誰もが手軽に移動できるもの(モビリティ)を人類は最終的に作らなきゃいけないはずです

そういう動きが、日本からでていなくて、私はすごく悲しい気持ちになっています。だからこそ我々はこの会社をやっています」

と思いを語る。

Turing代表の山本一成さん。

Turing代表の山本一成さん。

撮影:三ツ村崇志

チューリングは2021年に、山本代表と共同創業者の青木俊介CTOが創業したスタートアップだ。

2022年7月にはシードラウンドで10億円の資金調達を発表。2023年1月には1台限りではあるものの、国内の法規制に対応した「レベル2相当」の自動運転システムを搭載した自動車の販売を実現した

今後、2023年には自社開発のEVでの走行。2024年に自社EVを100台販売。これだけでもかなり難しいチャレンジのように感じるが、さらに2025年には完全自動運転車のプロトタイプを完成させ、2029年にはレベル5の自動運転を達成を目指す。2030年までに、1万台の販売を実現するのが目標だ。

「ドライバー」と「ナビゲーター」の役割分担で一つのシステムを構築

6月14日には、研究開発用の工場「Turing Kashiwa Nova Factory」を公開し、冒頭で紹介したLLM(大規模言語モデル)を搭載した自動運転車のプロトタイプも発表した。LLMは、現時点ではOpenAIが提供するGPT-3.5のAPIを活用している。

チューリングは、もともと自動車の前方に搭載したカメラなどのセンサーを用いた自動運転車を開発していた。カメラで周囲の様子を撮影し、走行データを学習した人工知能(AI)がその画像データを読み込むことで「状況を認識」。白線や前方車両との距離や速度などを加味して車の進路を決定し、それに沿って走行するようにハンドルを制御するシステム自体は、ある程度構築できていた。

筆者も過去に同システムが搭載された自動運転車に試乗経験がある。「自動で道を走る」という行為自体はそこまで違和感なく実現できていたように感じた。

今回新たに発表したLLM搭載車でも、カメラなどの既存のセンサー類は必要だ。ただ、LLMを活用することで、マイクで入力した音声をプロンプト(命令)として認識。カメラを通して見える「世界」の状況を把握した上で、音声入力への「回答」を車の動作へとフィードバックする。

LLM搭載車の車内の様子(左)。音声入力をすると、LLMがカメラを通して見えている世界の状況を踏まえて回答。車の動作へとフィードバックする(右)。

LLM搭載車の車内の様子(左)。音声入力をすると、LLMがカメラを通して見えている世界の状況を踏まえて回答。車の動作へとフィードバックする(右)。

撮影:三ツ村崇志

青木CTOは2つのシステムの関係を、同じコースのタイムを競う車の「ラリーカーレース」のドライバーとナビゲーターの関係性に例えてこう話す。

「ドライバーは、目の前の障害物を避けるとか、いわゆる反射神経でできることをやっています。一方ナビゲーターはGPSや地図、他の車の位置や燃料の減り具合などを見て指示を出す。このコンビが1つのシステムとして、コースを走破していくわけです。完全自動運転を実現する上で、これは一つの解になるかもしれないと思っています」(青木CTO)

瞬間的な状況判断を担うドライバーは、チューリングがこれまで培ってきたカメラなどのセンサーを通じた制御モデルに相当する。そして、複雑な情報を把握しながら指示を出すナビゲーターが、今回発表したLLMによる制御モデルだ。チューリングは、この2つの制御モデルを組み合わせたシステムを特許として出願。「チューリングが完全自動運転を実現するための礎となる仕組みである」としている。

Popular

Popular

BUSINESS INSIDER JAPAN PRESS RELEASE - 取材の依頼などはこちらから送付して下さい

広告のお問い合わせ・媒体資料のお申し込み