Apple
9月20日からiOS11の配布が始まった。なんといっても、IT業界の注目は、iOSデバイス上で動く「ARKit」だ。2017年のアップル世界開発者会議(WWDC2017)の発表時にはどの程度のものかわからなかったが、その後、デモの披露や少しずつ明らかになるARKitの全貌が見えてきた結果、決して“子ども騙し”などではない、かなり使えそうな開発環境だ、という見方がITジャーナリスト界隈でも広がっている。
今回は医療系ARアプリケーションを手がけるほか、AR/VR/MR開発の世界で名を知られるベンチャー、HoloEyes社のCEO兼CTO、谷口 直嗣氏にAR開発者目線でのARKitの感想を聞いた。
谷口直嗣。HoloEyes株式会社代表取締役、女子美術大学非常勤講師。フリーランスでのゲーム、インタラクティブコンテツ、ロボットアプリ企画開発を経て、2016年、VR/MR/VRを使った医療向けサービスを提供するHoloEyes株式会社を起業。また女子美術大学ではメディア表現領域にてゲームの開発を教えている。
iOS11の録画機能はARKitのために入った?
Business Insider Japan編集部からの依頼で、iOS11で動き始めたばかりのARKitを試してみた。トータルの印象は、「アップルにとって、ARKitはちょっとした機能追加ではなく本気」だというものだ。
まず、現実世界に仮想の物体を重ね合せるトラッキングの精度が、ただのスマホを使っているだけ —— つまり、デプスカメラ(深度カメラ/被写体の奥行きがわかるカメラ。2眼カメラや特殊なデバイスを使うことが多い)なしにもかかわらず、かなり良い。一般に出回っているiOSデバイスの内蔵カメラだけで、ここまでの空間トラッキングができるというのは、非常にインパクトがある。
iOS11ではARKitを生かすためと思われるような、動画での画面収録機能が追加されている。この機能をARKitが動くiOS11のリリースに乗っけてきた所にアップルの狙いが垣間見える。単なる3D表示をカメラスルーの映像に重ね合せるARアプリ(注:「ポケモンGO」など)だとスクリーンキャプチャーで十分なのだが、ARKitでは空間上の平面を認識して、バーチャルな3Dの立体をあたかもそこにあるように“置く”ことができる。
つまり、バーチャルな立体をそこに置いてiPhoneを持って動き回って遊びたくなるということだ。動画で残しておきたくなる、それに答えるのがiOS11の画面収録機能なのだ。
「画面収録」は設定をするとコントロールセンターから起動できる。丁寧にも3秒前からカウントダウンしてくれるので慣れてくればいいタイミングでARムービーの撮影を開始できる。
Apple
初見から1時間でARアプリがプロトタイピングできてしまうARKit
いま、コンテンツは画像から動画へシフトしている。この流れに乗ってARKitを使った面白アプリを動画で撮影→SNSに投稿、というのは自然な流れだ。こういうAR体験が誰でも使えるiPhoneやiPadで楽しめるようになれば、バーチャルとリアルが融合した新たなエンタメ領域が一気に加速するのでは、と思う。
今年の文化庁メディア芸術祭では、ポケモンGOのインスタレーション(「Pokémon GO 相棒ポケモンと記念撮影!」)が出現した。このようにスマートフォンの位置をトラッキングしてポケモンがそこにいるかのようなムービーが撮影できる、という体験がiPhoneだけでできるようになる。
最近の3Dアプリやゲームアプリは、3Dゲームエンジンの「Unity」を使って開発されることが多いが、おそらくARKitを使ったアプリもUnityを使って開発されることが多くなるのではないか。
ということで、UnityでARKitを使ったデモを紹介する。Unityの素材ストア「Asset Store」にはUnity AR Kit Pluginと言うアセットが用意されている。これをダウンロードしてUnityに読み込むと、サンプルのシーンをベースにして手慣れた人なら簡単にARKit対応アプリを作ることができる。
サンプルのキャラクターの替わりに肝臓のモデルをARで机の上においてみたアプリの映像がこちら。
今もっともアジャイル感のある京都土産の「阿闍梨餅」(あじゃりもち)の横に肝臓をおいてみた(ダジャレです)。表示するのがなぜ肝臓のモデルかと言うと、私の会社HoloEyes株式会社はVR/MR/ARを使った医療向けサービスを手がけているからだ。
ARKitが机の平面を認識をし、Unityで机の上に影を落としていることがわかる。さらにARKitから得た環境光の情報をバーチャル空間の光源に反映しているので、現実空間の明るさをバーチャル空間の肝臓に反映できている。
ここまで作るのに要した時間は、ARKit Pluginを初めて使い始めてからわずか1時間程度。ちなみに、こちらがベースになったUnityのサンプルのシーンだ。
Unityを使ってARアプリ開発をすると、「ARを表示するだけ」のアプリであれば、動かしたいハードウェアに合わせてプラットフォームを切り替える(Switch Platform)だけで、異なる複数の環境向けのアプリがつくれる。
例えば、HTC ViveやオキュラスなんかのVRヘッドセット向け、HoloLensのMR向け、ARKitのiOS向けといったように。そうなると、ハードウェアの価格や操作系の違い(iPhoneとは違い、コントローラーが必要なハードもある)など広い意味での「特性」を考慮して、複数の環境で問題なく操作できるような作り込みがポイントになる。
Android陣営も「AR Core」という、ARKitと同じようなミドルウェアを提供していて、Androidの機能ではないがスクリーンキャプチャーを録画できるアプリも出ている。今はデバイスが限定されているが、より多くのAndroid端末で動作するようになれば、ARKitとだいたい同じことができるようになる。つまり、現実世界にバーチャルな3D空間が「染み出してくる」」という動きはさらに加速する。
ARKitで「できない」ことは何か?
ここまでは、ARKitでバーチャルなものを現実空間に置いてあるかのように扱えると言う話をしてきた。
が、弱点もある。ARKitは現状は床や机などの地面に平行な平面の認識しかできない。だから、壁や地面に置いてある椅子などの形状は認識できない。
マイクロソフトの「HoloLens」は赤外線を照射して空間の形状を認識する特殊な深度センサーを搭載している。そのため、壁などの形状も認識できる。すると、このように壁から敵が飛び出してくるようなゲームを作ることができる。
ゲームが始まると、今いる部屋を3Dスキャンして、部屋自体がゲーム空間になる。バーチャルとリアルを融合させる、ミクスドリアリティ(Mixed Reality)というジャンルのゲームだ。私はこのゲームで熱中しすぎて、敵の攻撃を避けるために何度もしゃがんで太ももが筋肉痛になった。
ARKitのもう1つの弱点は、今の所、別々のiPhone(機器)同士で位置情報の共有ができないことだ。そのためHoloLensのように、複数人で1つの仮想オブジェクトを別々の角度から眺める、ということができない。もっとも、HoloLensは価格が高く(税込33万3800円)、また頭に装着して使う専用のハードウェアだから、そもそも使い方が違ってくる。
11月3日の発売が待たれるiPhone Xには顔認識(Face ID)用の3Dセンサーが搭載される。iPhone Xが人気を博せば、次期iPhone Xには背面にも3Dセンサーが搭載されるかもしれない。そうなれば、HoloLensのような空間認識も可能になるわけで、さらに面白くなるなーと期待している。
ARKitで、アプリ開発者はリア充フィルターにかけられる
最後に、ARKitが与える「エンジニアへの影響」の大胆予想。
「いきなり普段使いのスマホが位置推定の機能を持ったAR端末になる」 —— これは、今までは新し物好きのモノだったARやVRが、写真エフェクトアプリの「Snow」のようにカジュアルな存在になるということを意味する。本格的なARがユルいエンタメに入り込んで行って、インスタ女子の動画メディアにARコンテンツが入り込むような世界がやってくる。この先、インスタ女子が企画して発信するARコンテンツが動画で広がってくるのではと、真剣に思っている。
いわゆる「リア充」の仮想世界への進撃が始まって、インスタ女子たちにエンジニアとしての能力やアイデアを選別され、なお生還したVR/ARエンジニアのみが、本当のAR/VRビジネスと対峙できるという世界が来るんじゃないだろうか。