
【インタラクション2024に参加】 ヒアラブルへの入力を想定したユーザ定義型ジェスチャとIMUセンサによる耳タッチジェスチャの認識
はじめに
杉浦裕太研究室修士1年の佐藤優希菜です。3/6~3/8に東京・一橋記念講堂で開催されたINTRACTION2024に参加し、「ヒアラブルへの入力を想定したユーザ定義型ジェスチャとIMUセンサによる耳タッチジェスチャの認識」というタイトルで登壇発表を行いましたので、報告させていただきます。本研究は、同研究室の特別研究員(雨坂宇宙)との共同研究です。
研究の概要
近年、ライフログや音声サービスなどの様々な機能を搭載したイヤホン型デバイスであるヒアラブルの研究が多く行われています。一方、既存のヒアラブル単体での操作手法では限られたコマンドしか指定できず、デバイスの操作手法の拡張が必要です。
そこで本研究では、ヒアラブルの多くに内蔵されている IMU を用いたハンズジェスチャ入力手法を提案します。まず、ジェスチャ認識実験にあたって、ユーザ定義型ジェス チャを調査する Gesture Elicitation Study を行い、3つのインタラクション領域に対して 2 つのデバイスタイプの 計 6 つの条件によるジェスチャ定義の傾向を調査しました。

ユーザ定義型ジェスチャのうち耳を使ったジェスチャの認識率の調査を行った結果、インイヤー型デバイスは 91.6%,耳掛け型デバイスは 76.6%でした。

当日のフィードバック
歩行など日常生活動作による振動が生じる場合のジェスチャ認識やGesture Elicitation Studyに関する質問を受けました。今後は、日常生活動作を行っているときのジェスチャ認識精度の調査や、Gesture Elicitation Studyのさらなる解析を行うことを予定しています。
感想
今回はじめてインタラクションに参加したのですが、聴講してくださった方がとても多く少し緊張しましたが、さまざまなフィードバックをいただくことができました。いただいたフィードバックをもとに、より良い研究をしていきたいと思います。

発表文献情報
佐藤優希菜、雨坂宇宙、山本匠、渡邉拓貴、杉浦裕太、ヒアラブルへの入力を想定したユーザ定義型ジェスチャとIMUセンサによる耳タッチジェスチャの認識、インタラクション2024、一橋大学、東京.