見出し画像

【MobileHCI2024に参加】Exploring User-Defined Gestures as Input for Hearables and Recognizing Ear-Level Gestures with IMUs

はじめに

こんにちは。杉浦裕太研究室M2の佐藤です。9/30-10/3に、オーストラリアのメルボルンで開催されたMobileHCIに参加し、「Exploring User-Defined Gestures as Input for Hearables and Recognizing Ear-Level Gestures with IMUs」というタイトルで登壇発表をしましたので、報告させていただきます。本研究は、同研究室の特別研究員(雨坂宇宙)との共同研究です。

研究の概要

この研究では、ヒアラブル(イヤホン型のウェアラブルデバイス)を用いて、ユーザー定義型ジェスチャ(ユーザーが好むジェスチャ)調査とそのジェスチャの認識率の調査を行いました。以前インタラクション2024で発表した内容からアップデートを加え、ユーザー定義型ジェスチャの分類や歩行状態でのジェスチャ認識実験を行いました。

ユーザー定義型ジェスチャの分類

実験で得られた3648個のユーザ定義型ジェスチャを、物理的な特徴とジェスチャマッピングの過程の観点から6種類の分類を行い、インタラクション領域やデバイスタイプの変化によるユーザが好むジェスチャの変化を調査しました。全体的な傾向として、耳輪や耳たぶ、耳珠、頬などの様々な方向のジェスチャを行える部位がユーザに好まれることが分かりました。また、耳掛け型デバイスの方がインイヤー型デバイスより触れられる面積が大きいため、デバイスへのジェスチャが好まれるということも分かりました。

ユーザー定義型ジェスチャの分類結果

歩行実験

ヒアラブルを左右両方の耳につけた状態で、自由に歩きながら右耳でジェスチャをしたときの認識率の調査を行いました。右耳ではジェスチャ成分と歩行成分、左耳では歩行成分のみ含まれるため、左右のデータの差分を取ってジェスチャ成分のみを抽出し、認識率の調査を行いました。その結果、インイヤー型デバイスでは79.6%、耳掛け型デバイスでは58.8%の精度でジェスチャを認識することができ、歩行成分除去アルゴリズムを使用した方が精度が向上するという結果が得られました。

歩行成分除去アルゴリズム
歩行実験の結果

当日のフィードバック

インイヤー型デバイスと耳掛け型デバイスでAR(ジェスチャの一致度合い)に違いが出た理由や、インイヤー型デバイスと耳掛け型デバイスで異なるモデルを用いているが、統合させたモデルでも認識できるのかといった質問をいただきました。モデルを統合させるというは発想はなかったので、今後の研究の参考にしたいと思います。

感想

2回目の国際学会参加で登壇発表は初めてだったので少し緊張しましたが、自分の研究について英語で発表するという貴重な経験となりました。他大学のHCI分野の学生がどのような研究をしているのかを知ることができる良い機会でした。また、バンケットがPort Melbourneという海に面した場所で行われ、きれいな夕日を見ることができました。

バンケット会場からの景色

発表文献情報

Yukina Sato, Takashi Amesaka, Takumi Yamamoto, Hiroki Watanabe, and Yuta Sugiura. 2024. Exploring User-Defined Gestures as Input for Hearables and Recognizing Ear-Level Gestures with IMUs. Proc. ACM Hum.-Comput. Interact. 8, MHCI, Article 258 (September 2024), 23 pages. https://doi.org/10.1145/3676503

発表スライド

発表動画



いいなと思ったら応援しよう!