究極の省エネコンピュータへの新たな可能性
GPT、その基盤のLLM(大規模言語モデル)のビッグウェーブが到来し、今後どのように展開するかは予測不可能です。
1つ確実に言えるのは、ますますそれを計算するコンピュータリソースの負荷増大です。
既に過去でも問題視されており、特に今話題の自然言語処理は負荷がかかると警鐘を鳴らしています。
今回は、コンピュータの計算負荷を下げる興味深い試みを紹介します。
以前に、物理学者ファインマンの伝記でコンピュータの話題を取り上げました。
上記最後に触れた「効率的なコンピュータ」で触れた通り、
情報を失われるときにエネルギーが発生します。
それをゼロにするのが「可逆計算」というアイデアです。
前回の投稿ではその提唱者は割愛しましたが、(ファインマンではなく)当時IBMに所属していたロルフ・ランダウアーとチャールズ・ベネットという物理学者たちです。
ちなみに、情報を失うエネルギー最小単位を「ランダウアー」と呼びます。スケールで言えば、今のコンピュータで1回の論理演算をするのに数千ランダウアーを消費します。
この可逆計算が実現すると、無限に計算できる夢のような世界が広がりそうですが、計算過程で発生するエネルギーは摩擦熱のようなもので、原始的に防止するにはゆっくりと動かすしかありませんでした。(計算エネルギーゼロにするには無限の時間が必要!)
ある意味時間の効率化のためにコンピュータを使うため、これでは本末転倒です。
それが今話題の「量子コンピュータ」で、ランダウアーの限界を突破できるかも?という新説が出てきています。
提唱者は物理学者ジェームズ・クラッチフィールドとそこに所属する若き研究者カイル・レイです。
彼らの理論を説明した記事がこちらで閲覧できます。(和訳した記事が巻末にも)
”Momentum Computing”という概念で、ざっくりいえば、各電子の「位置」情報でなく「運動量(位置と速度)」を計測すれば、方程式から過去と未来が導かれる、つまり記憶しておけるというものです。
原理は何となくわかりましたが、それを実現する方法として、量子コンピュータで研究されている「超伝導磁束量子ビット」の仕組みに活路を見出しています。
いきなり小難しそうな用語が出ましたが、要は超伝導体と絶縁体を組み合わせた(ジョセフソン接合)回路で電流を流し、それをマイクロ波を照射することでコントロールするやり方です。
ここに流れる電流がなんと「運動量」も保持しているため、上記の新しい原理が実現できるのではないか?と期待されているわけです。
個人的にワクワクするのが、上記の記事最後にあるクラッチフィールドのコメントです。
確かに、単なる省エネだけでなく、計算の方式から見直すことで、思いもよらない計算ができる予感がします。
例えば生物で類似の情報を持つ機構を発見したら「生物コンピューティング」にも使えるかもしれません。
ChatGPTなどユーザとのフロントだけが目立ちますが、その計算を地道に支えるバックでも、もしかしたら革命がおこるかもしれません。
<参考リソース(本文内記事が和訳)>
この記事が気に入ったらサポートをしてみませんか?