![見出し画像](https://assets.st-note.com/production/uploads/images/142312521/rectangle_large_type_2_86c865d1e0a396d3a27c76e7132a0acc.jpeg?width=1200)
[オープン論文]フォンノイマンエントロピを導く
この小論文は、オープンサイエンスの一環として
皆様に公開するものです。
自由に拡張・改変して発表してかまいません。
公開することで、多くの方々の参考になり、
どなたかの論文のタネになるのなら、
物理学の発展に寄与できると思います。
論文の概要
普通、純粋状態の情報エントロピー(シャノンエントロピー)
は、0とします。
しかし、波動関数の複素共役との積ψ*(q,t)ψ(q,t)は、
「物理量がqである時の確率密度」
を表すので測定できます(例えば電子雲とかの像)
そして、確率密度P(q)から情報エントロピーSが計算できます。
S= -∫dq P(q)log(P(q) )
もちろん、固有値分解したものを考えると情報エントロピーは
0です。また、波動関数そのままの情報エントロピーを考えても、
波動関数ψ(q,t)は、ψ(q,t)|q> = |q><q|ψ> で定義される
ので、物理量qは無数に考えられ、確率密度の分布は1つに
定まらないので、情報エントロピーは意味を持たないです。
そこで、「ある物理量qの測定」が始まる時、
定まっているqについての波動関数ψ(q,t) と、
射影仮説を適用した後のψ_after(q,t)=δ(q-q0) についての
情報エントロピーを考えます。計算すると、
その差は、フォンノイマン・エントロピーに一致します。
詳しくは、以下をお読みください。
波動関数の情報エントロピーの計算
① 離散固有値系の場合:
固有状態の|a>での確率は、
Pa=<ψ|a><a|ψ>
情報エントロピーSは、
S=-Σa <ψ|a><a|ψ>log( <ψ|a><a|ψ> )
=-Σa f(a)*f(a)log( f(a)*f(a) )
=-Σn Pnlog(Pn )
密度行列ρにおいて、対角項が Pnlog(Pn )であると考えると
=-Tr(ρlogρ)
また、射影仮説を適用した後のS_after は、
-Σn Pnlog(Pn ) =-1nlog(1 )=0 ですから、
その差-Tr(ρlogρ)が、系の外=観測者に入る
ことになります(その全てが観測者の情報の増加ではないが)
② 連続固有値系の場合:
確率密度=ψ*ψ=<ψ|q><q|ψ> なので、
確率密度・Δq=ψ(q)*ψ(q)Δq=確率 と考えれば、
情報エントロピーSは、
S=-Σ ψ*ψΔq log(ψ*ψΔq)
=-Σ { ψ*ψ log(ψ*ψ)Δq+ψ*ψΔq logΔq}
=-∫dq ψ*ψ log(ψ*ψ) -∫dq ψ*ψ log dq
ここで dq=exp(da) と置くと、第2項は、
∫exp(da) ψ*ψ da なので発散。
S=-∫dq ψ*ψ log(ψ*ψ) +∞
=-∫dq P(q)log(P(q) ) +∞
また、射影仮説を適用した後のS_after の左項は、
-1nlog(1 )=0
その差は、発散項が消え、
-∫dq P(q)log(P(q) )
ここで、無限次元の密度行列ρにおいて、
対角項が P(q)log(P(q) )であると考えると、
-∫dq P(q)log(P(q) ) =-Tr(ρlogρ)
したがって、フォンノイマン・エントロピー=-Tr(ρlogρ)が
導けました。
//
フォンノイマン・エントロピーの正体
上記からこれは、物理量qの測定時 生成される
波動関数<q|ψ> の「平均情報量」
と言えます。