![見出し画像](https://assets.st-note.com/production/uploads/images/13368841/rectangle_large_type_2_785b3a56f814176fa33e14205d89adc5.jpeg?width=1200)
マンガでわかるHCI: 今週のコンピュータサイエンス研究 140字での論文解説 まとめ 7/27-8/2
このnoteでは、最新のコンピュータサイエンスの研究を140字でゆるく解説しつつ、気になる論文にはこういう研究もあるよと2-3個似てる研究を紹介しています。
分野の中の人も外の人も、実務で忙しい人もそうでない人も、小学生も大学生も、「なるほど、最先端ではこんなことがおきてるんだな。ふむふむ」と感じてもらえたらと思います。
---
今週は、SIGGRAPH 2019があったということで、先週に引き続きSIGGRAPHの論文が多めです。Emerging Technologiesでもいくつかおもしろいのがあったらしく、ペーパーではなくてもそういうのも今後取り上げてもいいかも。
そして、今週のニュースはなんと言っても、Project SoliがPixel 4として世に出たこと。Soliは2015-2016年頃に出た当初から話題でしたが、こうやって研究の成果が実際にプロダクトとして出てくるのはいいですね。(Soliに関しては「最新」ではないですが、せっかくなので紹介します)
ミリ波レーダーでジェスチャー認識
[SIGGRAPPH 2016] Soli: Ubiquitous Gesture Sensing with Millimeter Wave Radar
ミリ波レーダーでジェスチャー認識するProject Soliが、来年のPixel 4に搭載されるとのこと。「何に使うんだ?」といった疑問はともかく、ハードウェア研究で試作からマーケットインするのは並大抵のことではなかったはず... イヴァンとそのチームに敬服(Ivan 今年は超忙しいって言ってたもんな..) pic.twitter.com/gdujjsaSR4
— マンガでわかるHCI(ヒューマン・コンピュータ・インタラクション) (@HCI_Comics) July 30, 2019
ちなみに元論文は #SIGGRAPH2016 のこちら。一番の特徴はresolutionがかなり高い(0.3mm)のとframe rateが早い(1万FPS)こと。原理的には昔から知られているが、それを小型のパッケージにするところが実装的に一番大変だったとこだろう(左: 昔 ⇔ 右: 今)https://t.co/6WlCSJPkdL#140字での論文解説 pic.twitter.com/ED7B0MO6mR
— マンガでわかるHCI(ヒューマン・コンピュータ・インタラクション) (@HCI_Comics) July 30, 2019
ちなみに少し古いですが、こんなコンセプト動画もあったりします。https://t.co/kaAIhTZXT2 pic.twitter.com/TJlASaiZ1w
— マンガでわかるHCI(ヒューマン・コンピュータ・インタラクション) (@HCI_Comics) July 31, 2019
似てる論文
- [UIST 2016] Soliを使って物体認識 - RaderCat
- [MobiCom 2016] スマホの音響反射を使ってジェスチャー認識
- [CHI 2016] 同じGoogle ATAPグループがやっている服をタッチセンサーにする - Project Jacquard
手のひらサイズLiDARを使ってジェスチャー&物体認識
[CHI 2019] SurfaceSight: A New Spin on Touch, User, and Object Sensing for IoT Experiences
#CHI2019 自動運転などでも使うLiDARをスマートスピーカーに乗っけて空間ARのインタラクションに使う論文。スマホの音楽をジェスチャー操作したりプロジェクターと連動させてARレシピをしたり。Soliにも近いがこちらはRPLIDAR A2という手のひらサイズLiDARhttps://t.co/7RCIPbvTso#140字での論文解説 pic.twitter.com/ECkz6m1Ofa
— マンガでわかるHCI(ヒューマン・コンピュータ・インタラクション) (@HCI_Comics) July 30, 2019
似てる論文
- [UIST 2018] レーザーを部屋の角から飛ばしてその反射で人が何をやってるかわかる - Vibrosight
- [CHI EA 2005] レーザースキャンを使って指のトラッキング - Smart Laser Scanner
スマホケースにつけられるカスタム可能な物理ボタン
[SIGGRAPH 2019] Vidgets: Modular Mechanical Widgets for Mobile Devices
#SIGGRAPH2019 スマホケースに物理的なスイッチをつけて入力を拡張する論文。Project Araを思い出す。味噌は電子部品は一切なく、全部押したときの振動をスマホ内のセンサーで解析してるところ。なぜSnapがこんな研究を?というのはツッコんではいけない笑https://t.co/W5EMNXP37p#140字での論文解説 pic.twitter.com/x3KKDs0Prf
— マンガでわかるHCI(ヒューマン・コンピュータ・インタラクション) (@HCI_Comics) July 31, 2019
似てる論文
- [UIST 2018] スマホのリアカメラを指のトラックパッドに - CamTrackPoint
- スマホの機能をモジュールに分けて必要に合わせて機能拡張 - Project Ara
3Dプリンターの積層をバーコードに
[SIGGRAPH 2019] LayerCode: Optical Barcodes for 3D Printed Shapes
#SIGGRAPH2019 3Dプリンターで積層されるレイヤーをバーコードと見なして、情報を埋め込んでしまおう、という論文。発想がおもしろい。2色はもちろん、層ごとの反射率を変えて、見えなくすることも可。埋め込めるのが24ビットくらいと少ないのが今後の課題https://t.co/VkG1fyMjNs#140字での論文解説 pic.twitter.com/XFahoecFWw
— マンガでわかるHCI(ヒューマン・コンピュータ・インタラクション) (@HCI_Comics) July 29, 2019
似てる論文
- [UIST 2017] 細かい気泡を使って3Dプリントの中に情報を埋め込む - AirCode
カメラなしで手の形をリアルタイムに取れる手袋
[SIGGRAPH 2019] Interactive Hand Pose Estimation using a Stretch-Sensing Soft Glove
#SIGGRAPH2019 手の形を認識できるグローブ(注:カメラなし)仕組みとしては手袋にシリコンでできた静電センサの回路を這わせて44点の歪みを取り学習させる。既存のより取れる点が多いからかなり正確。シリコン回路をレーザーカッターで作れるのがアツいhttps://t.co/jCd9FwdEXR#140字での論文解説 pic.twitter.com/RbBL21L2rM
— マンガでわかるHCI(ヒューマン・コンピュータ・インタラクション) (@HCI_Comics) August 2, 2019
似てる論文
- [ICCV 2017] 深層学習を使って、RGBカメラでジェスチャー認識
- [CHI 2019] レーザーカッターで伸縮可能なセンサー作る - LASEC
- 市場で買えるVRセンサーグローブ - CyberGlove
動画を油絵風に自動変換
[SIGGRAPH 2019] Stylizing Video by Example
#SIGGRAPH2019 動画を油絵のようなスタイルに変換しちゃう論文。1枚のキーフレームをペイントすると、あとはよしなに動画全体を変換してくれる。いわゆるStylization論文(写真をゴッホの絵みたいにするなど)だが深層学習ベースではなくパッチ生成ベースhttps://t.co/ZabcBcHnbh#140字での論文解説 pic.twitter.com/h7EN2968dz
— マンガでわかるHCI(ヒューマン・コンピュータ・インタラクション) (@HCI_Comics) July 31, 2019
似てる論文
- [SIGGRAPH 2001] 深層学習以前のスタイル変換の先駆的な論文 - Image Analogies
- [SIGGRAPH 2013] 似た手法でアニメーションをスタイル変換 - Stylizing Animation by Example
- [UIST 2014] 写真を油絵風にペイント加工 - Painting with Bob
自立分散協調ロボットによる、部屋の3Dスキャニング
[SIGGRAPH 2019] Multi-Robot Collaborative Dense Scene Reconstruction
#SIGGRAPH2019 複数台のロボットで、部屋をスキャンし3D構築しちゃう論文。1台のロボットでSLAMというのは結構あるが、論文の貢献は「複数台でどうやって効率的にやるの?」という点。まだスキャンされてない情報をもとに巡回セールスマンを解く仕組み。https://t.co/2qEQmEb1ea#140字での論文解説 pic.twitter.com/gCg3F8CIww
— マンガでわかるHCI(ヒューマン・コンピュータ・インタラクション) (@HCI_Comics) August 1, 2019
似てる論文
- [SIGGRAPH Asia 2017] 単体ロボットで部屋の3Dスキャン
車椅子の人にとって通りやすいかをマップで可視化
[CHI 2019] Project Sidewalk: A Web-based Crowdsourcing Tool for Collecting Sidewalk Accessibility Data at Scale
#CHI2019 Googleのストリートビューを使って、クラウドソーシングで道の「アクセシビリティ」を集め可視化した論文。アイデア自体面白いが、1年半で797人が使い5千kmにおよぶ情報を得、車椅子の人に実際に使われているとこに社会実装的なインパクトがあるhttps://t.co/2cKPobN5Fn#140字での論文解説 pic.twitter.com/g0oCTTUve2
— マンガでわかるHCI(ヒューマン・コンピュータ・インタラクション) (@HCI_Comics) August 1, 2019
似てる論文
- [CHI 2013] 今回のシステム(ストリートビュー + クラウドソーシング)のベースとなっている元論文
ゴムゴムのアルマジロ・シミュレータ
[SIGGRAPH 2019] Decomposed Optimization Time Integrator for Large-Step Elastodynamics
#SIGGRAPH2019 Adobeで一緒に働いてるMinchenくんのビヨーンとめっちゃ伸ばせるシミュレーション・ソルバー。こういうのは大抵非常に遅くなってしまうのだが、セグメンテーション分けしてそれぞれのリージョンで計算して速くしてるのが味噌。にしても笑うwhttps://t.co/0teCsCO13e#140字での論文解説 pic.twitter.com/Ga0fYCpOU9
— マンガでわかるHCI(ヒューマン・コンピュータ・インタラクション) (@HCI_Comics) July 29, 2019
似てる論文
- [SCA 2016] 今回の手法のベースとなった高速シミュレーションアルゴリズム - ADMM
ちなみに、メールでも配信してます。Gmailだと、あとで情報の検索がラクなので、こういうストック的なものは、メルマガのがあっている気がします。というか、自分が欲しかったので作りました。(個人的には研究紹介系のメル配信を結構購読していて、日本のだとpiqcyさんの機械学習系のメルマガがかなりおすすめ。もちろん無料です。)
リンクはこちら → https://www.getrevue.co/profile/HCI_Comics
Twitter(@HCI_Comics)では、連載の更新以外にも、HCIや他のコンピュータ・サイエンスの最新の研究についても、動画や画像を交えながら更新していく予定です。ぜひフォローしてもらえたら嬉しいです。(ちなみに中高大生の方からすでに結構相談や連絡をもらっていますが、全然気軽に連絡してもらって大丈夫ですよ。 :)
Facebookページ(@HCIComics)も合わせて「いいね」していただけたら嬉しいです。よろしくおねがいします。
中の人は、アメリカでコンピュータサイエンスの研究をしています。
Twitter(@ryosuzk)やホームページ(http://ryosuzuki.org/)も興味があれば。
いいなと思ったら応援しよう!
![マンガでわかるHCI(ヒューマン・コンピュータ・インタラクション)](https://assets.st-note.com/production/uploads/images/5309235/profile_9462eaa2d7c20b656df550c1a226a3b7.jpg?width=600&crop=1:1,smart)