![見出し画像](https://assets.st-note.com/production/uploads/images/8662915/rectangle_large_type_2_e0de2fd0a1266c0a66737a843c2318a1.jpg?width=1200)
day6 ー 小脳を使ったAI (バズりそうなタイトルにしてみた)
Yamazaki, T., & Tanaka, S. (2007). The cerebellum as a liquid state machine. Neural Networks, 20(3), 290-297.
小脳はリキッド・ステート・マシンであるという考察
前提知識
ニューラルネットワークはさすがにわかりますね。その中にリカレントニューラルネットワーク(RNN)というカテゴリがあり、時系列データを扱うときによく使用されます。その中でもLSTMはL社のスマートスピーカーの音声認識アルゴリズムとして使われており有名です。RNNは最適化困難といわれており、Reservoir ComputingというRNNの一部では中間層をぐるぐるさせています。今回登場するリキッド・ステート・マシン(LSM)はその一種で、閾値関数を使用していることが特徴です。以下の記事が詳しいです。
やったこと
従来のモデルより、小脳の構造、とくにプルキンエ細胞と下オリーブ核の役割を忠実に再現したモデルを構築し、シミュレート。モデルはLSMとprecerebellar-celebellar nuclear circuit(単純知覚)の2種類で構成される。
考察
小脳は単純モデルというよりLSMとして考察するのがトレンド。このモデルはgeneralizationよりdiscriminationに向いている。
興味深い点
正直数式なんかは読み飛ばしたので細かいところまで把握できていませんが、小脳は脳の中でもよくモデル化されているな、と思います。