AppleVisionProは未来つくるか?
ひょんなことからAppleVisionを入手できる機会があったので、思い切って買ってみた。
(Sさんありがとうございます…!)
AppleVisionProは現在USでしか販売しておらず、価格もお高めなので購入するのには正直二の足を踏むと思う。
たが数日体験してみて、たしかに体験価値があるデバイスだなと感じた。
いくつか体験できるイベントもあるとおもうので、チャンスのある方には是非試してほしい。
MetaQuestと何が違うのか?
Apple Vision Proは他のXRデバイスと何が違うのだろうか?
競合として真っ先に思い浮かぶのはMetaQuest3だ。
ではMetaQuestといったい何が違うのだろうか…?
まずは動画を見てほしい。
わたしは操作方法を一切知らずに1日体験してて、フラストレーションが溜まりまくった(愚かだ…)
もし触る機会があれば、動画を見て焦らず操作方法を予習しておくのがおすすめだ。
なにがちがうのか…?そう、Apple Vision Proにはコントローラがない。
コントローラレスの気持ちよさ
これが革命的な体験になっていた。
とくにMacBookProの画面をミラーリングするMac Virtual Displayの体験が最高だった。コントローラを持つというステップがないので、キーボードでのタイピングとハンドジェスチャーでのウィンドウ操作を相互に行き来するのがびっくりするほどシームレス。
どうしてコントローラレスで操作できているのか…?
視線追跡とハンドジェスチャーを組み合わせでこれが実現できている (のだと思う)
AppleVisonPro内での一般的な基本的な操作方法はこうだ
1. 視線: 対象を注視する (たぶん0.1 ~ 0.3sec以内) => 操作対象の決定
2. ハンドジェスチャー: 親指と人差し指をつまむ => タップ開始
3. ハンドジェスチャー: 親指と人差し指を離す => タップ終了
iPhoneと比較してみよう
1. ハンドジェスチャー: 親指で画面を押す => タップ開始
2. ハンドジェスチャー: 親指で画面を離す => タップ終了
コントローラではどうか?
1. スティック: 移動 => 操作対象の決定
2. ボタン: 押下 => タップ開始・終了
比較するとステップが多そうなAppleVisionProは不利に見える。
ただ視線追跡の応答速度とハンドジェスチャーの認識速度が限りなく最適化されて高速なのだ。もっさりとした嫌な体験が一切ない。ヘッドセット機器でコントローラがないという体験は本当に自由で爽快だった。
視線追跡は正確だが、操作には慣れがいる
先程挙げたように、AppleVisionProではステップ1の視線で対象を注視するという操作が必要となる。
ただこれが少し難しい。
おそらく普段一点を見つめて、そこに合わせてジェスチャーという一連の動作に慣れていないからじゃないかと思った。
例えばタイピングをしている時、キーボードを見たり、視界の端で画面を眺めたりと意外と視線は移動していたりするものである。
しかし正確な操作には正確な一点の注視がいる。
操作精度が一番高いのは視界の中央を注視している時だ。
顔を対象に向けて注視する動作 (顔+視線の移動) が必要となれば、普段通りの顔の動きや視線の動きから若干の変化が強いられる。
特にリスト内のアイテム選択が難しかった。なんとなく視界の隅の方にあるWindowのリスト要素を選択しようとすると、対象の下や上の要素を選択してしまうことがマチマチあった。
(DialogのOK / Cancelなどの選択では致命的になりうる)
正確な操作が必要なタイミングでは、きちんとWindowを顔の手前に持ってくる、手元に引き寄せる、視界の中央にボタンを収めるという意識をすると快適さが向上する。
ジェスチャーはへその前でしろ
Appleの動画をみていると、空間にあるオブジェクトを直接つまむのではなく、顔の下でつまむようなジェスチャーをしていることに気づくだろうか?
AppleVisionProでは、ヘッドセットの下方向にカメラが搭載されているので視界の中にないハンドジェスチャーが認識できるのだ。
というか視界の全面にあるハンドジェスチャーよりも視界下部 (胸〜へその前) のハンドジェスチャーのほうが認識精度が高い。
なので選択操作は、「表示されたボタンを注視 + ボタンに手をかざして直接つまむ」のではなく、「表示されたボタンを注視 + へその前でつまむ」というのがおすすめだ。
なんとも不思議な動作だが、これがなれると気持ちいい。
ゴリラアーム問題というのがタッチパネルの時代にあった。
あれと同じで空中にあるものを掴むという動作を繰り返すと疲弊するだけど、へその前なら疲れない。
キーボード問題
AppleVisionProでは先ほどあげたように注視する行動がまず初めに必要となってしまう。
通常のキーボード入力では変換中の文字入力部分を見ながらタイピングを行うことができる。
だがVisionProにはコントローラがないので、キーボードを見ながら入力が必要で、変換中の入力部分を途中で見ることができない.
この入力体験の悪さは、他のデバイスにはないウィークポイントだなと感じた。
ただ音声入力が使えるレベルで発達してきているので、致命的な障害にはならないとはおもう。
現状の課題
コントローラレスの操作感は気持ちよく、これからの発展性もありそうだ。
VR酔いもほぼ感じなかった、パススルー体験の気持ちよさや解像度の高さも素晴らしいと感じる。
ただ、やはりというか他のデバイスと同様にヘッドセットの重さ、長時間つけたときの眼精疲労感は拭えない。
日常で利用できるような普及には、まだいくつか技術革新が必要だと考えられる。
購入するべきか?
あなたがなにか先行者利益を享受できる立場にあるならば、買ってみるのは一興だと思う(開発に使う、YouTubeでレビューするなど)。
だが一般の人にはまだおすすめできるような段階にはなかった。
特に視線追跡が肝となるデバイスなので、メガネありでの使用を考えている米国外の人は、現時点での購入は控えるのが懸命かもしれない。
わたしは普段メガネなのだけど、利用時はソフトコンタクトレンズをつけている。
メガネをつけて操作すると視線トラッキングが全く反応しないので、メガネユーザはその点もよく調べたほうがいいだろう。
また日本国内では技適特例が必要なのも注意されたい。
操作体験は楽しいので、一度やってみてほしい。
宣伝
株式会社TRY20では、AppleVisionProを使ったアプリ開発を行っているので、デバイスを触ってみたい、開発を相談したいなど、もしご興味あればご相談ください。
contact (あっとまーく) try20.jp
https://try20.jp
おわり
この記事が気に入ったらサポートをしてみませんか?