量子技術のブレークスルー:大きいほどエラーが訂正されやすくなることを証明
Googleが量子コンピューティングで重要なブレークスルーを果たしました。
丁度同日にOpanAIの動画生成AI Soraが発表されたこともあり、世間はそちらに関心が寄せられているようですが、科学技術の観点ではこちらのほうがインパクトは大きいです。
公式のYoutubeチャネル動画が分かりやすいのでお勧めです。
一番詳しく公開しているのはNature誌に投稿された論文です。
今回開発に成功したWillowという量子計算装置を使うことで、従来の最速スパコンで10の25乗かかっていた計算が5分未満で行うことが出来るそうです。この最速スパコンとは、史上初めてエクサスケールに到達したフロンティアです。過去記事を載せておきます。
今回の技術的なブレークスルーは、量子エラー訂正を改善させるアイデアにあります。
そのアイデアとは、1つの「論理」量子ビットの情報を複数の冗長な物理量子ビットに分散させることで、どの物理量子ビットの脆弱な量子状態よりも長くその情報を存続させることに成功しました。
この成果について、量子コンピュータの誤り訂正の背景から説明します。
まず、量子コンピュータは、我々がなじみの電子コンピュータ同様に0か1を表現(量子ビット)して計算します。ただ、量子ビットは極めて外部環境に弱いため、超極低温状態で制御しています。それでもほんのわずかしか存在することが出来ません。しかももっと厄介なのが、電子コンピュータは複製化することで誤り訂正を施せますが、量子コンピュータは原理的に複製を禁止しています。
それを回避するために考案されたのが「量子もつれ」現象で、これは旗振りゲームのように片方の値が決まったらもう片方も機械的に決まります。この仕組みによって間接的に量子ビット状態を観察する(つまり誤り訂正する)わけです。
ただし、この方法でもノイズの影響があるため難易度が高かったわけです。
今回の開発に先立って、Googleはサイズを大きくすることでその誤り訂正率を低下させる発明を2023年に発表していました。(こちらです)
過去にも投稿したので載せておきます。
ポイントは、物理量子ビットがある閾値を超えたら、量子ビットが追加されるにつれて論理エラー率が指数関数的に抑制されるという、まさに夢のような理論です。
今回はその閾値を超えた105個からなる物理的量子ビットを開発し、この理論が正しいことを証明しました。
今回の発表で分からなかったのが、10の25乗という宇宙年齢スケールを遥かに超えた数字が、量子計算が並行宇宙で行われているという考え方に信憑性を与えた、という記事内のくだりです。
こちらはもう少し意図を理解して改めて書いてみたいと思います。
いずれにしても、工学的に他社も同サイズを開発出来るようになると(それは時間の問題でしょう)、量子コンピューティングの競争が一気に加速するのは間違いありません。
生成AIもいいですが、量子の世界にもぜひ注目してみてください。