見出し画像

2024年ノーベル物理学賞:AIの原理には自然科学の法則あり

2024年のノーベル物理学賞が発表されました。今年は意外な受賞者でした。

第三AIブームとなった「深層学習」の基礎理論確立に貢献した、アメリカのプリンストン大学のジョン・ホップフィールド教授と、カナダのトロント大学のジェフリー・ヒントン教授の二人に贈られました。

AIの専門家がノーベル自然科学賞を受賞したのは初めてだと思います。

このブログでいずれも過去に取り上げてきたので載せておきます。

今回は、受賞した業績について砕いて紹介します。

まず、時系列ではホップフィールドの発明が先立ちます。過去投稿にもある「ホップフィールドネットワーク」の発明です。

そしてその根底にあるのは物理学の考え方であることは、あまり知られていません。

元々今の深層学習は、我々の脳の構造を模倣することから始まりました。ニューラルネットワークと呼ばれます。
ホップフィールドはそもそも物理学者で、神経細胞に相当する「ノード」間を脳のようにつなげて記憶モデルを説明しようとしていました。
その際に、物理学の「エネルギー」概念を組み込みます。各ノードの状態と接続の強さを基に、ネットワーク全体の「エネルギー」を計算し、低いほど、ネットワークが安定した状態にあるとします。つまり、この人工脳は、このエネルギーを最小化しようとふるまうわけです。

ここに例えば、部分的に欠けた画像データを処理すると、ノードはエネルギーを最小にする方向に変化していきます。最終的に、エネルギーが最も低い状態にたどり着くと、保存されたパターンが復元されます。

このネットワークの特徴は「連想記憶」と呼ばれます。たとえば、単語の一部を思い出そうとしているときに、関連する言葉を次々と思い出し、最終的に正しい単語にたどり着く過程に似ています。

魔法のような仕組みですが、その原理は同じく物理学の「スピン」という概念を参考にしています。これはスピンという磁性に関わる物理量で、これらがドミノのように連鎖的に影響を及ぼすことが分かっています。

こちらについてまたどこかで深堀したいと思いますが、まずはここまで。

次のヒントンは、このモデルをAIに応用しました。

つまり、ホップフィールドが考案した人工脳全体でのエネルギー最小化という原理を採用しました。
ただ、その計算方法として、別の統計物理学を参考にし、通称「ボルツマンマシン」と呼ばれます。ボルツマンとは、統計物理学のパイオニアともいわれる物理学者です。

思い切ってシンプルにかくと、常に全体エネルギーを最小化するための最適な経路を確率的に計算して導くという手法です。

ただ、全ての経路を計算するのはあまりにも計算負荷がかかるので、それをうまく間引いたりショートカットをつくることで、実用的なボルツマンマシンを作り上げることに成功しました。

その高い効率性のおかげで、計算する階層を増やすことが出来、今の「深層学習」につながったというわけです。(コンピュータ側の技術革新があることもことわっておきます)

ヒントンは2023年にGoogleを辞め、今ではAIに対する警告を発信しています。今回の受賞を受けて、どのような発信活動を続けていくのかは興味深いところです。

それはともかく、改めて心から受賞者の方々おめでとうございます!

この記事が気に入ったらサポートをしてみませんか?