Day40―子どもはロボットからでも人間と同じくらい学習できる
1週間弱、間が空いてしまいました。
久しぶりに論文を読んだせいか、いつもの倍くらい時間がかかってしまいました。
これだけ時間を空けたことで、改めて継続の重要性を実感した次第です。
それでは今回は、認知科学、HRI (Human Robot Interaction) に関する論文です。
http://dx.doi.org/10.1016/j.ijcci.2017.04.001
2-5歳の子どもに、ロボットまたは人によって2枚の絵を提示し、それが何なのか覚えてもらった。その結果、どちらの場合でも記憶度に違いはなかった。
背景
HRI研究の方向性は、個人的には2つの観点があると考えている。
1つ目は、ロボットと人間の違いを見る研究。ロボットが教えた場合と、人間が教えた場合の違いについて見るような研究のことである。
2つ目は、ロボットと人間の相互作用に関する研究。テレノイドのような、人間のコミュニケーションのあり方そのものを変えるような研究のことである。
もちろん、両者が混在している研究も沢山ある。今回の研究は前者。
実験と結果
2-5歳の子どもに、動物が描かれた6組の写真を見せ、「これは○○だよ」と一方を指し示すことで、動物の名前を覚えてもらう。この教示は人間(女性)が行う場合と、DragonBotという名前のロボットが行う場合の2条件がある。さらに混合条件として、2枚の写真が2つのタブレットを使用することで離れて見せられる場合と、1枚のタブレットによって近くで見せられる場合の2条件を設定した。これは、動物を指し示す動きがわかりやすい条件(離れて提示)と、わかりにくい条件(近くで提示)を用意している。
結果、まず近くで提示する場合に比べて離れて提示する場合は、人間・ロボットどちらが教える場合においても動物の名前を正しく覚えていた割合が有意に高かった。このことから、指し示す動作は学習において重要であるという、前提条件が正しいことがわかった。
その上で、正しく覚えていた割合は人間、ロボットどちらの場合も変わらなかった。このことから、人間であろうとロボットであろうと、動作があればちゃんと覚えられることがわかった。
しかし、人間とロボットの違いは注視時間に現れた。学習時において、人間の場合はほとんどの時間で写真の方を見つめていたのに対し、ロボットの場合は写真とロボットを見つめていた割合は半々であった。
この結果は2つの解釈がある。1つは、単純にロボットが見慣れないため長く見つめていたという考えである。もう1つは実験テーマに関係するが、人間の場合はロボットよりも非言語情報が多く、見つめる割合が低かったという考えである。後者の場合は、さらにロボットをブラッシュアップする必要がある。特に今回のロボットは首の動きが無いため、首の動きをつけるだけでも有効ではないだろうか。
所感
もしM1に戻れるなら、この実験の発展版をやりたい(笑)。それくらいデザインとしては王道を行くHRI研究で、発達心理学も絡んでいて面白い。
ちなみにこの研究はMITの研究室で実施されたが、主任教授は話がめちゃくちゃ面白くて上手い。