【AR Talk①後編】ハードウェアスタートアップから見るスマートグラスのこれまでとこれから
AR TalkはARおじさんがゲストを招いて、ARの技術やトレンド、未来について語り合います!
本投稿は株式会社テレパシージャパンより、「ひだちゅうさん」こと日高貴仁さんをお招きして、スマートグラス(ARグラス)のハードウェア事情などについてお聞きする対談の後編になります。
前編はこちら
※後編ではMagic Leapについての記載が含まれていますが、本対談はMagic Leapの発売が開始する前の2018年8月7日時点でのものとなります。
スマートグラスのユーザーインターフェースのスタンダードは何になるのか?
ARおじさん:スマートグラスのユーザーインターフェースについても色々聞いても良いですか?
Vuzixはタッチパネルを搭載してますけど、個人的にタッチパネルだと立体的な操作は制限されてしまうと思うんです。Magic Leapはコントローラーをセットにしていたりするし、Leap MotionのProjectNorthStarは得意のハンドトラッキングをインプットにしてたり。
スマートグラスごとに備えてるUIも三者三様といった感じですが、日高さんからみてどのユーザーインターフェースが今後主流になりそうとか予測ありますか?
ひだちゅうさん:アイアンマンやマイノリティ・リポートみたいな操作!と言いたいところですが、しばらくはコントローラーのアプローチが正しいと思っています。
でも、ARのグラスという意味では、むしろ操作させない方が良いとも思っています。
まず、VRやWindowsMR、Magic Leap、Epsonのスマートグラスなども、ボタン数や制御方法は違うもののやはりコントローラーがついています。
リモコンやゲーム機など、もともと人間が慣れているので直感的に操作できるということ、アプリ開発においてもイメージのしやすい一定の制限のもとで開発できることなどが理由です。
アプリ開発者も上下左右やEnter、ESCのキーコードを操作に割り当てるという方が仕様にまとめやすく、開発しやすいです。立体的な操作まで網羅する、標準機能としては信頼性もコントローラーが適していると思います。
しかし、普段使いするARスマートグラスという時代が来る頃には、わざわざ操作をするのにカバンやポケットからリモコン出すのは面倒すぎるので置き換わってくるでしょうね。
ハンドトラッキングはマウスの代替以上に直感的な操作系ですが、VR、MRには良くてもARに果たして必要かというとそうでもない気がしています。
スマートグラスで何をするか、というところですが……スマートグラスをかける未来って、手軽に装着できて、あとは情報を得るのが目的で、MRやVRみたいに3Dオブジェクトを操作したいから装着するわけじゃないと思うんですよね。
なので、スマートグラスはユーザーは受け身で、操作はかなり単純化した方が良いと思ってます。
ARおじさん:なるほど、ユーザーがどんな情報を欲しがっているかはスマートグラス側が汲み取ってくれると。
ひだちゅうさん:ちょっとしたボイス操作と、ジェスチャーで例えば手を右から左に振ればUIが左に流れるとかそのくらいで十分だと考えています。あとはジャイロかアイトラッキングなどで、傾きや視線をマウスの代わりにしちゃうとか面白そうです。
タッチパネルに関しては、それこそマウスパットほどの広さを確保できないので、キーボードで言うところの上下左右やEnter等の操作を割り当てるのが限界です。すべての操作をするというよりはその場で手軽に操作する程度の役割しかこなせません。
VRやMRのようにオブジェクトを配置する、回り込むなどの操作はさせずに、装着したままの状態で例えば通知を表示したり消したり、アプリを起動したりちょっとした操作をしたりという用途です。
むしろ、ウェアラブルとして普段使いするのであれば操作させるべきではないと思っているので、タッチパネルで事足りるサービスの展開が必要だと考えていますが、ここは長くなってしまいそうなのでまた別の機会に(笑)
そういうわけで、普段使いを前提としたスマートグラスであれば、理想は操作はほぼ不要で、タッチパネルやジェスチャー、ボイス操作も必要最小限にするべき。
なんなら、現在時刻と現在位置情報、カレンダーや行動パターンから「通勤ルートで電車が遅延してるよ」とか勝手に表示してくれればいい。AIのユーザーインターフェースがスマートグラスでしたとかの方が最適だと思います。
ARおじさん:なるほど、そう言う意味ではGoogle Glassが登場した時にGoogleが発表したコンセプトムービーのような操作感が実は一番理想のスマートグラスに近いのかもしれませんね。
ひだちゅうさん:僕、外出のたびにスマホで電車乗り換え検索するの結構ストレスなんですよね(笑)
3DオブジェクトをARで表示して、グリグリ動かしたいなら、スマートグラスの上位モデルとかがハンドトラッキングに対応してるとか、ViveやWindowsMRみたいなリモコン使えばいいと思います。
ゆえにハンドトラッキングなど高度な操作は主流ではないかなあと。見るだけならいらないですし。
そういう時代が来るまでは、傾きや上下左右などで操作できるリモコンがある方が、断然ユーザーにフレンドリー。開発のしやすさの観点からもキーボード、リモコン、マウスの代替品がユーザーインターフェースとしては主流、しかし、普段使いするなら操作ほとんど不要であるべき!が僕の考えです。
ARおじさん:ARの入力インターフェースはほとんど不要になる、というのは自分にはあまりない考えでしたのでとても新鮮でした!
自分はどちらかというといろんなインターフェースを許容する(ある時はハンドトラッキング、ある時はタッチパネルなど)様なスマートグラスやアプリケーションが登場するのかと思っていましたが、日高さんの考えを聞くとその正反対である可能性もあるかもしれないなと確かに思いますね。
そうなると今ARKitなどを使って開発されているARアプリみたいなものはほとんど残らなそうな感じもしますね。
ひだちゅうさん:身につけるものって、あまり操作という行為と親和性高くないと思うんですよね。
例えば腕時計や活動量計、近視のメガネやサングラスとか。腕時計は見れば時間がわかれば良いし、サングラスはかけたら眩しくなくなればそれでいい。そのくらいにならないと、普段使いはしてもらえないだろうなあ……って考えてます。
VRもMRも普段使いしないのでもっといろんな入力インターフェイス増えると思いますが、ことスマートグラスの分野ではウェアラブル、普段使いをキーワードに進化させるべきと思います。逆にスマホのように広くスマートグラスが受け入れられる為には、エンジニアやギークじゃないと対応できないような操作系は全て排除しないと、難しすぎて使えません(笑)
大阪のオバちゃんが使えて、「ふーん普通やね」って言わせるくらいじゃないと一般ユーザーには受け入れられないと思ってます。
ARおじさん:なるほど〜!確かに、自分たちの認識としてスマートグラスが「ウェアラブル」であるという認識が抜けていました。
そうするとこれからは人間の動作を知覚する機能よりも人間の意志を先回りして読んだり、コンテキストを理解する様な技術が重要になってくるんですね。
逆に言えばその技術が出始めてきたからこそスマートグラスの日常利用の可能性が大いに高まっているとも言えるわけですね
ひだちゅうさん:まさに!AlexaやGoogleAssistant、Siri、Cortanaとかはすごくマッチすると思うんですよね!
Amazonのディスプレイ付きのスピーカー、あれそのままグラスのシステムにしてもアリだと思ってます。
ただ、日本人って漫画、アニメなどのフィクションでもうなんとなく分かってて、ARとかハンドトラッキング操作とか何となく出来ちゃいそうで……そっちが普通に主流になる可能性も感じてます(笑)
日本人とARは非常に相性が良いと思っています。昔からAR技術自体はこういうものというのが、フィクションの世界でも多用されてきてました。
メガネという意味では電脳コイル、空間ディスプレイやAR、ホロなどだとマクロスシリーズや機動戦艦ナデシコとか…それ以上昔から。
最近だと劇場版ソードアートオンラインの序盤などはスマートグラスが実現すべき未来!UIだ!と界隈で盛り上がったり(笑)
日本が世界で最も早いAR市場!となる可能性も十分にあるかと!
ARおじさん:確かに!みんな「ARだとだいたいこういう風に使うもんだ」みたいなものがすでに頭の中にあるから社会に溶け込んで行くのも早いかもしれないですね。
まだまだ目が離せないMagic Leapの可能性
ARおじさん:一般消費者向けARデバイスとして注目を浴びているものとしては先ほど話にも上がったMagic Leapもありますよね。続々と期待を裏切っているMagic Leapですが、日高さんは今のMagic Leapをどう見ますか?
ひだちゅうさん:MagicLeapといえば、体育館でクジラが跳ねる動画ですね(笑)
2012年のTEDが特徴的すぎたり、Webサイトでモールス信号やってみたり、CGだけで実機が出てこない期間が長かったり。やっとハードが出ると思いきやMagicLeap One発表時のゴーレムが岩を投げてくるムービーや、ARKitなどですでに見飽きた物差しなどのAR技術にガッカリした人も多いかと思います。
しかし、冷静に数字を見てみると有名企業から合計約22億ドル(約2500億円)の出資を受けていたり、MagicLeap Oneの発表後はAT&Tが独占販売権を得るために投資し、バリュエーションとして63億ドル(約7100億円)という評価額がついてたりします。素直にうらやましいです(笑)
ARおじさん:(笑)
ひだちゅうさん:流石にこういう無視できない金額になってくると、僕らもまだ理解しきれていない圧倒的な技術や取得済み特許、戦略などいろいろとありそうです。
ARおじさん:僕もデモ動画を見てがっかりしてしまった人の1人でした(笑)
ひだちゅうさん的にはどのような部分が特に気になっていますか?
ひだちゅうさん:一つ気になっているのが、ライトフィールドです。
Magic Leapによると、同社のハードウェアでは旧来の同じ映像を少しずらしたり、赤青メガネをかけたりするような視差方式の3D技術ではなく、ライトフィールドを利用した3D技術を使っているようです。人間は、モノが光を反射しているからいろんな色で見えたり、立体を感じたりするわけですが、ライトフィールド技術の3Dでは、それを再現して3D表示を行うので非常にリアリティのある映像がみられる見込みです。
しかし、その分膨大な情報量と処理能力、消費電力が必要なためグラスへの実装はかなり難しく……でも、ARの見え方としては視差方式よりも適しています。
そのためなのか、組み込みの学習済み機械学習システムなどに使われているJetson TX2と同じ、Tegra X2というNvidiaのチップを搭載しています。処理性能の高さのわりに消費電力は低いのが特徴です。
とはいえ、スマホ向けプロセッサーを使用しているグラスとはくらべものにならないくらいドカ食いしちゃいます。そのためのワイヤードでの「Lightpack」でしょうね。
デザインはともかく、HololensやMeta2を超えるハードウェアとなる可能性が十分にあること、さらにそれをB2B2Cのような(例えばアミューズメントなど)用途でも使用できうる可能性を秘めていることなどを考えると想像以上に市場に与える影響は大きいと思います。
昨今のVRブーム、HTC ViveやOculus以上のインパクトが、MR(MixedReality)としてMagic Leapに引き起こされるかもしれませんよ。
ARおじさん:AT&Tが独占販売権を獲得していたり、ライトフィールドのお話なんかを聞いたりすると確かにまだまだMagic Leapの動向も見逃しがたいですね!
ライトフィールドを一番最初に実用的に社会にリリース出来そうなのはMagic Leap Oneになってきそうですね。
ひだちゅうさん:実際に現物を見るまでは、それでもやはりにわかには……と天邪鬼なもので(笑)
また、ライトフィールド + ARであるなら、しばらくはメガネを使わないアプローチの方が正しいと思っています。
ブレードランナーの作中に出てくるようなデジタルサイネージの応用なども想像に難しくありませんし、サイネージならメガネをかけなくても見えた方が良いですよね。電源はグラスのように制限されない事や収益化が想像しやすいこと。
スマートグラスよりも先に、例えばアスカネットの空中ディスプレイのような技術が、デジタルサイネージ、車載ヘッドアップ・ディスプレイ、アミューズメントなどで使われることでARが身近になり、市場とARの在り方がある程度固まってくるかなと思ってます。
そこで今現在VRやMRをやってるエンジニアさんたちも、これらの知見を持った状態でARに注目するようになってきて、さあやっとスマートグラスの時代ですよと。
あくまで僕の目測ですが、不思議とそのくらいのタイミングと、技術的にスマートグラスのハードがウェアラブルとして普段使いできるサイズ感になりそうなタイミングが重なりそうなんですよね!(笑)
ARおじさん:なるほど〜!デジタルサイネージや車載ヘッドアップなどならハードの問題もある程度解決は容易そうですし、市場投入も早そうですね!
ちなみに結構多くの方が気になってると思うのですが、Magic Leapに限らず、スマートグラスが一般に普及する時期はいつ頃だと見てますか?
ひだちゅうさん:グラスの一般普及は2022~23年頃を1つのターゲットに見ています。といってもそれでいきなりスマートフォンのように普及するというよりは、今で言うVR、MRと同じくらい様々なアプリが作れて、一般の消費者が買える環境と言うイメージです。
早ければ、開発者向けですが2019年内にいろいろとプラットフォームを取りたいプレイヤーからハードウェアがでるかな?と思ってます。
ARおじさん:なるほど!ありがとうございます!
ひだちゅうさんと話してるとARの未来が楽しみでしょうがない(笑)
テレパシージャパンが目指す、アプリ開発者と共に作る日本発のAR
ARおじさん:最後にこれまで話したARのハードウェアの動向なども踏まえてひだちゅうさんがどう言った形でARの実用化や社会実装に取り組まれていこうと考えていらっしゃるのか、お話しできる範囲で教えてください!
ひだちゅうさん:弊社、テレパシージャパンとしてはもともとARのグラスを作るというよりも、ウェアラブルでコミュニケーションを変えるという切り口からスマートアイウェア(スマートグラス)を作ることをコンセプトとしてきました。
そのため、なんでも出来るメガネというよりは、もっと人によりそって、朝起きて顔をあらったらとりあえずつけて、AIコンシェルジュみたいなサービスに天気やスケジュールを教えてもらって、外出すればルートARで表示して、視線の映像を共有しながら電話して、SNSのシェアだってスマホのような操作をしないで簡単に……将来的にはそういう製品を作りたいと思っています。
もちろん、技術的な問題もあるのですぐにはそこまで行けませんが、ウェアラブルとしてストレスを感じない製品を作りたいと考えています。
それまでの間は、基礎研究や市場の需要を見極めながら、B2Bのフィールドを中心に考えています。PCやスマホとの連携を意識しながら、スマートグラスとしてここまでできるぞ!と開発していきたいです。
とはいえ……もちろん僕が欲しいのはもっとガッツリARできる、ちゃんとスマートなグラスです(笑)
ソードアートオンライン劇場版序盤に出てくるようなUI(オーグマー)で、電脳コイルのような普段使い、つけていても違和感がないような見た目の、ウェアラブルと言えるスマートグラス。 なんなら、アクセルワールドのニューロリンカーみたいなデザイン、直結型とか最高ですね(笑)
街の中はセカイカメラの世界観、だけど必要な情報は個人に合わせて自動で取捨選択されてて、スマホで検索するという行為から解放されたいですね。
例えば、押上駅の周りを歩いたら、フォローしてるTwitterアカウントの「スカイツリーでイベントしてるよ!」とか、乗り換えアプリが「浅草線が遅延しているよ!」とか位置情報や行動予測から自動でAR表示されるイメージです。
ついでにAR広告とか出せば、今まで何の価値もなかった場所に、ARの不動産価値が発生するかもしれません。AR街歩きコンテンツとか、そのくらいARを浸透させられるハードとサービス、作りたいです。
最後にですが、僕自身は、今までは裏方として製品企画やアプリ開発などに関わってきました。しかし、これからはもっと外にも情報発信をしていきたいと思っています。
ただハードウェアを作る会社の中の人ではなく、他社やフリーランスの方、学生も巻き込んで、ARを共に盛り上げる人になっていきたいと思っています。
最終的にユーザーにどう使われるか、UIはどんなものかというのを肌身で感じて考えているのは、やはりアプリケーションを作っている方や、サービスを展開している人だと思います。
どんな人がどんな考えでアプリを作って、どんな機能が必要になっているのか、そういうところも教えてもらいながら、協業や情報共有、開発を進めていきたいです。
個人的にであれば、ここでは言えないハードウェア界隈の裏話とかもどんどん言ってしまいたいですね(笑)
このような考えがあったので、今回のインタビューは非常にありがたく感じています。本当にありがとうございます!
ARおじさん:めちゃめちゃARに対する愛のあるメッセージありがとうございます!
弊社MESONでもこれからはARを活用したアプリやサービスをいろんな企業様と一緒に作って行こうと考えているフェーズなので、テレパシージャパンさんたちのハード技術を活用したサービスなどもこれから作っていきたいです!
今回は対談に参加いただきありがとうございました!
AR/VRを活用したアプリやサービスを作りたい方へ
私がCOOを務めるMESONでは来るべきARスタンダードの時代に使われるようなARアプリケーションを作成すべく多くの知識やノウハウを蓄積しています。
弊社はAR(もしくはVR)を活用したサービスのUI, UXや技術的な観点からアドバイスをさせていただいたり、開発をさせていただく事業もさせていただいています。
AR/VRを活用した事業を実施したいと考えられている方は弊社サイト、もしくは私のTwitterまでご連絡ください。
対談者紹介
日高貴仁氏(ひだちゅう)
株式会社テレパシージャパンで商品企画や戦略を担当。
公務員の職に就いたのち、自営業や、Microsoftのイベント企画運営、販促戦略、テクニカルサポートなどを経験。その後、現在の株式会社テレパシージャパンに至る。
初音ミクさんとARを使ってデートするのが夢。
ARおじさん
株式会社MESON COO。開発から事業作りまでやる何でも屋さんです。
TwitterでARに関する様々な情報を発信しています。「ARでこんなもの作りたい」っていう相談にも乗りますので、Twitterでのフォロー、DMお待ちしています!
この記事が気に入ったらサポートをしてみませんか?