脳画像から心が読めるようになった
Semantic reconstruction of continuous language from non-invasive brain recordings というnature neuroscienceの掲載された論文の紹介です。
脳画像とタイトルで書きましたが、正確には脳機能画像(fMRI)です。
脳機能画像(fMRI)から文章を生成するモデルを構築
3人の被験者に16時間に渡り物語の朗読を聞かせ、聞いている間の脳活動をfMRI(機能的磁気共鳴画像法)により計測。
脳活動の計測データから頭に浮かんでいる単語や文章を予測するモデルを構築しました。モデルにはAIによる単語予測も含まれています。
想像をデコーディングすることに成功
音声を聞いてる際の脳活動をデコーディングして、どのような音声を聞いていたかを当てるタスクの成績が最も精度が高くなりました。
それよりも精度は落ちますが、頭の中で想像した音声のデコーディングについても、高いレベルでデコーディングすることができました。
他にも「音のない映像」を観ている際の脳活動から音声のデコーディングや、複数話者がいる際に注意を向けている話者の音声をデコーディングすることにも成功しています。ただし、これらのデコーディングは少し精度が落ちるという結果でした。
思考が読まれると、脳が監視される社会になる?!
先日のダボス会議では「脳監視社会」が話題になりました。EEG(脳波計)やfMRIによって計測された脳活動から、思考が読み取られてしまうのではという懸念からです。
今回の研究結果はそのような恐怖に、また一歩近づいたのかもしれません。
しかし、ある人の脳活動で訓練されたデコーダを、他の参加者の脳活動を予測に適用した場合には、デコーディングの精度が落ちました。
「動物の名前を挙げる(意味記憶)」や「頭の中で別の話をする(想像発話」ことを行うことで、脳のデコーディングに対して抵抗する、つまりデコーディングの精度を下げることにも成功しました。
つまり現時点ではまだ思考読むには精度が低く、たとえ自分専用のデコーダーが開発されたとしても、それに抵抗する手段(=戦略)が存在するということになります。
【龍成メモ】
脳を開けずに外から脳を観察する、いわゆる「非侵襲」的なアプローチによって思考を読み取るのは限界があると考えれてきました。
AIによる予測機能がデコーディングを補助しているとは言え、文章をある程度デコーディングできてしまったのは驚きです。
先日のダボス会議で話題になった「脳監視社会」について、今週のセミナーでも簡単に紹介する予定です。
企業で脳科学に限らず新規事業に関わってる方や、ビジネスで脳科学を応用しようと考えている方が対象になりますが、ご興味がある方は是非ご参加ください。