見出し画像

2024年ノーベル物理学賞(補足):ホップフィールドの記憶モデル

2024年ノーベル物理学賞の補足です。

今回は、今のAIブームを生んだ深層学習(ディープラーニング)の原理を発明した二人に贈られました。
ホップフィールドが考案した脳の記憶モデルをAIの開発に応用したのがヒントンの技法です。

分野でいえば生物学か神経科学か計算機科学です。なのになぜ物理学賞?と違和感あると思いますが、いずれも物理法則がその基底にあります。

そのあたりをもう少し掘ってみたいと思います。今回はホップフィールドの業績に絞ります。

彼は元々物理学者で、物理学のアプローチで生物、特に脳の仕組みを解明したいと考えていました。要はその原理を解明したかったということです。
この流れはシュレディンガーという物理学者が引き起こしたことで有名です。今でも彼が1940年代に著した下記の書籍は瑞々しさを保っています。

この影響でホップフィールドのように生物学に転向した物理学者は当時多かったようです。(DNA発見者の1人もその系統)

ちょうどこの書籍が発表されたころに、今日につながる人工ニューラルネットワークの源流も誕生しました。

話を脳の研究に戻します。

脳は神経細胞(ニューロン)がネットワーク状でつながった構造で、電気信号の授受で情報を処理していると考えられています。

この電気信号がどのように記憶という行為のたびに流れて収まるのかがホップフィールドの研究テーマでした。

よく考えたら不思議です。我々が何か記憶しようとすると、脳内で電気信号が動いて記憶前の別のパターンに収まるわけです。一体どこにその記憶した情報が詰まっているのか?脳自体はハードウェアなのでほぼ固定化された物質です。(厳密には違いますが)

なので、記憶とは「脳内電気信号のパターン」と対応していると考えたわけです。つまり、個々の電気信号授受の集合パターンが鍵となるわけです。

しかも、それまでの研究で、脳は一部の細胞が失われても記憶を維持できるという、よく考えると不思議な機能も持っています。

そこにホップフィールドが持ち込んだのが、「スピン」の持つ集合の性質です。ここが一番ユニークな発想だと思います。

ここでのスピンとは、磁性体(磁力に影響を受ける物質)での磁力を受ける物理量を指します。

この「スピン」という言葉は色んな文脈で登場します。超ミクロスケールで現れる量子力学でも登場します。参考までに過去投稿を。

ポイントは、
磁性体内でのスピンネットワークが、パターン保存され部分欠損でも全体をリカバリするかのようなふるまいを見せる、
という点です。

実はこの研究は、別の科学者が2021年にノーベル物理学賞を受賞しています。少しだけ触れた過去投稿を載せておきます。

いずれにせよ、このスピンネットワークの仕組みが「脳の記憶」と似ている、と発想したことが個人的には鳥肌ものです。物理学者でないと想像すら出来ないと思います。

そしてもう1つのアイデアが「エネルギー最小化」という自然の法則です。これは物理学者でなくてもある程度知られていますし、何となく直感的には納得できます。脳はエコなコンピュータとして有名です。(大体20W程度の電気消費量)

1980年代に発表されたホップフィールドネットワークは、今でも進化を遂げており、2020年に「モダンホップフィールドネットワーク」と称したモデルが発表され、改めて記憶作用を表現していることが確認されたのは過去話した通りです。

ということで改めてですが、ホップフィールドの研究は、物理学の、特に結構奥が深いスピンネットワークを土台に置いています。
それが後年に、ヒントン氏含むコンピュータ科学での発展を促しました。
実はホップフィールドと同じような研究は日本でも行われています。興味のある方は日本物理学会による今回の解説記事を参照ください。数式もあって難解ですが、そこは流しても日本の貢献は感じられるとお澪ます。

そしてホップフィールドの研究は、元々の目的である脳の探求に今でも貢献し続けているという、分野を横断した素晴らしい業績であることが少しでも感じていただけたら幸いです☺

この記事が気に入ったらサポートをしてみませんか?