知覚でなく脳が想像した画像表示に成功
頭の中ではイメージ出来ていてもうまく表現出来ない、誰もが経験するモヤモヤタイムですよね。
そんな悩みを吹き飛ばす、すごい研究発表がされました。
要は、
被験者が見た画像と異なる想像をしたときに、その内容を脳波から推定する技術を開発した、
という話です。
見たものを脳内表現し、それをそのまま描写するのは以前からあります。
例えば、「夢を可視化する」研究は日本でも発表されています。
今回はもう少し込み入ったもので、見たものと対立した脳内表現でも可視化出来る、というのがポイントです。
例えば雪を見たら鍋を連想してそれを表現する、みたいな感じでしょうか。
脳と機械をつなげる研究は、BMI(Brain Machine Interface)と呼ばれ、以前にも近い話題を取り上げました。
前回の記事は物体を脳波で動かすテレキネシスですが、今回は脳内情報を送るテレパシーに近いですね。
人間が視覚する原理と人工知能との繋がりを踏まえて、今回の研究がもたらす意義について紹介します。
まずは 眼の内部にある「網膜」で捕捉した光信号をうけて、大きさ・傾き・色など要素処理する部位に情報が引き渡されます。
そしてその処理結果が「視覚野連合」に寄せ集まり、知的処理を担う大脳新脂質で統合的に処理され「脳内イメージ」となります。
この分離・並行処理・統合プロセスを初めて知った時は驚きました。なんとなく高度な並列型コンピュータを想像した方もいるかもしれませんね。
そして、この脳における視覚処理プロセスを参考にして人工知能の研究も進んだといわれています。
人工知能は「深層学習(ディープラーニング)」が主流ですが、それを導いたスーパースターが何名かいます。
その一人「ヤン・ルカン」が出した最新作「学習する機械」でも、歴史を振り返ってこの視覚処理プロセスについて触れています。
今回の研究では、機械学習技術でそのボトムアップで集まった神経の復号化と、最終的に大脳新皮質が表現するトップダウン信号との関係をより明らかにしたということです。
冒頭発表で公開された研究発表の説明図を引用しておきます。
ちょっと難解に見えますが、ポイントはとにかく知覚収集のボトムアップと大脳新皮質によるトップダウンの相互作用を解明したことです。
今後ですが、今回は「言葉や風景」など絞ったジャンルへの特定でしたが、マッピング技術が進むにつれて、より解像度の高い分類に分けられ、いずれは(知覚経由でなく)脳で想像したことが高い精度で表現できる日が来てもおかしくはありません。
神経科学は、それを生み出した人工知能の力も借りて、ますますエスパーに近づくかもしれません。要注目です。