出典:アップル
アップルは毎年秋に各製品用のOSをアップデートする。特に2022年に注目なのは、iPhone向けの「iOS 16」だ。
Macとの連携、「ロック画面」の刷新、AIの活用、そして音声入力の使い勝手改善など、多数の新機能が搭載される。7月12日に配信が始まったパブリックベータ版で、その機能をいち早く体験してみると、思わずうならされる有用なアップデートもあった。
ここでは、イチオシの機能に注目して掘り下げてみよう。
(1)iPhoneがMacの「ウェブカメラ」に。机の上も同時表示
ビデオ会議向けの「ウェブカメラの画質」は今や多くの人が気にする機能になった。
iOS16では、「iPhoneをMacのウェブカメラにする」という、ありそうでなかった機能がOS純正機能として搭載される。
以下の写真と動画をご覧いただきたい。
iOS 16とmacOS Venturaを使うと、iPhoneを「ウェブカメラ」にできる。写真で使っているのは「iPhone 13 Pro Max」だが、iPhone 11以降の端末なら、最新macOSとの組み合わせでこの機能が使える。
撮影:西田宗千佳
実際に「ウェブカメラ化」機能と、デスクビューを試してみた。
撮影:西田宗千佳
ビデオ会議やビデオチャットのアプリには、「使うカメラやマイクを切り替える」機能がある。今秋にアップデート配信される最新版の「iOS 16」と、「macOS Ventura」(ベンチュラ)を組み合わせると、近くにある「Macと同じApple IDで動いているiPhone」を自動的に検出し、ウェブカメラとして使えるようになる。
このiPhone連携に関して、ユーザー側で設定が必要なのは、ビデオ会議アプリから、使うカメラとして「iPhone」を選び直すだけだ。
カメラとしてのiPhoneは、アップルの「FaceTime」はもちろん、ZoomやMicrosoft Teamsなど、ほぼ全てのビデオ通話アプリで使えるようだ。ブラウザー上で動くGoogle Meetなどのブラウザアプリでも問題なく使える。
なぜわざわざiPhoneをウェブカメラとして使うのか?
第一の利点は「とにかく画質が良い」ことだ。
今回は「iPhone 13 Pro Max」に加え、「14インチMacBook Pro(カメラは1080P)」と、ケーブル接続でウェブカメラになるミラーレスカメラ「ソニー ZV-E10」をレンズキット付属のレンズをつけて撮影してみた。
撮影:西田宗千佳
iPhoneを使った場合、はっきりと画質が良くなっている。解像感でいえば、カメラとしては高性能なはずのZV-E10を上回る。
ただ、ZV-E10は一眼のレンズを使っているため、焦点距離に合わせて自然な「ボケ味」を出せる。iPhoneの場合、これはちょっと難しい。
撮影:西田宗千佳
そして、さらに便利なのは、手元も同時に写す「デスクビュー」があることだ。
「デスクビュー」を併用し、自分と手元を同時に表示することもできる。2つとも、iPhoneから出ている映像だ。近年のiPhoneが搭載する複数のカメラを使って「書画カメラ風」の映像と同時使用できるというのは、かなり「本気」の開発をしている印象がある。
画像:筆者によるスクリーンショット
iPhone 11以降の製品には「超広角」を含む、複数のカメラが搭載されている。一番よく使う「広角」は正面の自分の顔を、「超広角」は手元を写すため、それぞれを同時に使うのだ。
手元が写せると、デジタル化されていない資料や手書きの資料、時にはスマホやタブレットの画面を直接見せるのが容易になる。
ただ、単に2つのカメラを使っただけでは、ここまでキレイに映し出すことは難しいはずだ。
顔を優先すると、手元を撮影した映像は、本来かなり歪んでしまう。そこに「ソフトウェア処理をかけて補正するところまで考えた実装」になっているので、こんな曲芸のようなことが簡単にできるのだ。
スマホをウェブカメラにするアプリはすでにあるが、デスクビューのような仕組みも備えているのは、メーカー純正の強みだろう。
実は「デスクビュー」は1つの専用アプリになっている。
ビデオ会議ソフトでは、アプリの画面を相手に見せる「画面共有」機能があるので、それを使い、自分のMacで動いているデスクビューの画面を相手に見せる形になる。
課題があるとすれば「角度の調整が難しい」ことだ。うまく設置しないと歪みが目立つ。
今回は特別なアダプターを用意したわけではなく、普通の三脚を使って設置したのだが、おそらく今秋には、適切なアダプターが、多数販売されると想像している。
(2)「ロック画面」が大幅進化
iPhoneのロック画面は、これまで「壁紙」と時計が表示されるだけで、ウィジェットを配置できるAndroidに比べ、機能面では劣っていた。
iOS 16ではそこが変わる。一列だけだが、天気や時間、予定などを表示するウィジェットを追加できるようになるのだ。
ロック画面の例。気温や予定、Apple Watchのバッテリー残量など、いろいろなウィジェットを配置できるようになった。
画像:筆者によるスクリーンショット
しかし、それよりも大きいのは、外観面でのカスタマイズの幅が上がることだ。
プリセットをみると、自分がいる場所を表示してくれる「地球」、「月」、「惑星」など、なんとなく見覚えのあるものが並ぶ。
この新機能は、Apple Watchの文字盤のために作られたものを、より画面の広いiPhone向けに再構成したものなのだ。
天気をリアルタイムに表示する壁紙や、自分のいる場所に合わせた地球を表示する壁紙も。
画像:筆者によるスクリーンショット
特に「写真」を使った機能は興味深い。すでにiPhoneのストレージやiCloudの中には、長い間に撮影した写真がたくさんあるはず。
その中から、建物や自然の風景、人の顔などが自動的にピックアップされ、「おすすめの壁紙」としてまとめられる。そこから色合いなどのカスタマイズも可能だ。
過去に撮影した写真から自動的に「壁紙に合うもの」をピックアップしてくれる。
画像:筆者によるスクリーンショット
さらにロック画面は、iPhoneやMacなどの「集中モード」と連動している。
「仕事」や「パーソナル」「おやすみ」など、それぞれに壁紙とそこに紐づくウィジェットを選べるので、モードが変わっていることが壁紙の違いで、ひと目でわかるようになっている。
(3)AIで写真から「切り抜き」「文字コピペ」
iOSは以前から、端末上で動作するAIの活用に積極的だ。
現行の「iOS 15」では、英語や中国語に関しては、画像内から自動認識して「文字としてコピー」してメモやネット検索に使うことができた。
この機能が、ついに日本語に対応した。製品の名前でも文章でも、電話番号でもメールアドレスでも、写真で撮っておけば後で「コピペ」して使える。
もう、画像を見ながら入力し直す必要はない。文字が不鮮明だと認識ミスもあるのだが、精度はかなり高いと感じた。
商品の包装にあった文字をライブテキストでコピーしてみた。
撮影:西田宗千佳
もうひとつ「Visual Look Up」という機能も強化されている。
画像の中で、中央もしくは大きく写っている部分を「長押し」してみよう。
すると、自動的にAIが輪郭を判断し、「選択したいであろうもの」だけを切り抜いてくれる。人の顔でも食事でも、自動車でも建物でもいい。
メールやメッセンジャーなどで、スタンプ代わりに使ってみる……なんて使い方ができるし、資料などに周囲をカットした目的の画像を貼り付ける、という使い方もできるだろう。
人物や食品、人工物を切り抜いてみた。
撮影:西田宗千佳
(4)地味だが便利な「音声入力とキーボードの併用」
文字の入力自体は、すでにタイプより音声入力の方が速い。音声入力はもう、かなりの精度になっている。
だが、意外と使っている人は少ないのではないだろうか。
実際に使ってみるとわかるが、理由は精度以上に「修正や設定切り替え操作の手間」にあるように思う。
現状、音声入力モードに入ると、文字入力による修正は「音声入力モードを終わらないとできない」ものだ。
音声入力では句読点が正しく入らないとか、数文字だけ間違えた、ということが多い。だが、単に「。」と打ちたいだけなのに、音声入力モードの切り替えが必要になってしまう。だから、短い文章を入れては入力モードを切り替え、再度音声入力を……という繰り返しが必要で、実に面倒臭かった。
iOS 16では、この「切り替え」を意識する必要がなくなる。
音声入力とキーボードを実際に同時に操作している様子。
撮影:西田宗千佳
動画を見ればわかるように、音声入力モードに入ってもキーボードは「消えない」。音声入力中にも自由にキーボードで文字を修正できる。
「。」を打つためだけに切り替えはもういらない。しゃべって「。」がなかったら、キーボードから入力すればいいのだ。数文字の間違いの修正も、ここですぐできる。
音声入力が短文だけでなく、ちゃんとした長さの文章を作るための技術として、ようやく本領を発揮することになりそうだ。