欢迎来到YuleZhang的量子计算专栏,本专栏围绕着《量子信息与量子计算》陈汉武编展开,奉行费曼学习法,尽可能的用生动的语言和自己的理解来拆解这本书,从而不断巩固和进步,欢迎与我一起学习,同时也期待你宝贵的建议!
这一章,我们讨论量子信道和它的容量。相信学过计算机网络的同学都知道香农定理和奈奎斯特定理这两个网络传输中的基本定理,分别指出了有噪声和理想低通信道下传输速率的界限。基于这些定理,科学家们研究出了各种信源编码、信道传输编码、纠错编码技术等
那我们以同样的思路去研究量子信道和它的容量界限,也能帮助我们了解其速率影响因子,从而能帮助我们不断地去优化其性能,不断逼近信道容量和速率的上界,最终能够提高信道传输信息的效率。
下面先来看看经典信息论中的平均互信息 I ( X ; Y ) I(X;Y) I(X;Y),它表示接收到符号 Y Y Y后平均每个符号关于 X X X的信息量,因此信道的信息传输率就是平均互信息,即
R = I ( X ; Y ) = H ( X ) − H ( X ∣ Y ) ( b i t / 符 号 ) R=I(X;Y)=H(X)-H(X|Y)\quad \quad(bit/符号) R=I(X;Y)=H(X)−H(X∣Y)(bit/符号)
在正式介绍信道编码定理之前,还需要重新回顾一下之前的知识。在前面的文章中提到了量子信息和量子计算的很多概念,例如量子信道qubit传送、量子高密度编码、量子瞬间传送等内容。这些内容都是基于量子比特来表示经典比特,这是因为目前的信息的表示、存储都还是基于经典信息,还没有建立qubit表示的完整体系。也就是说,目前的研究大多数都是先明确经典信息要传输的内容,然后将其转换为量子比特的形式去表达,最终想要查看内容还需要重新将其转换为经典bit,进行解码。对,基本上之前介绍的内容都是基于这样一个思路。下面通过两个例子来印证一下上面的想法。
想想量子隐形传态,是不是通过传送1qubit表达1bit的信息,这个过程每一次都要传输2bit信息来完成(传输测量结果),用这种方法来传送bit?那不是开玩笑,还不如直接传bit内容了,这样效率非常低。再来回顾量子纠错编码,那三种基本的即bit反转错误、位相反转错误、bit和位相反转错误,在纠错过程中我们引入了重复码,即将原1bit转为3qubit(通过控制非门实现),在解码时根据多数决定法得到原本bit内容。
总之,这么大费周折的想构建量子信道,就是看中了其相干性、纠缠性、体积小等优点,正因为量子信息的前途不可限量,于是吸引了一大波迷弟迷妹去研究它。
假设给定具有迁移概率 P ( b ∣ a ) ( a ∈ X , b ∈ Y ) P(b|a)(a\in X,b\in Y) P(b∣a)(a∈X,b∈Y)的信道 W W W,并假设输入字母集合 X X X的符号 a a a以概率 π ( a ) \pi(a) π(a)出现,此时互信息量 I ( π ; W ) I(\pi;W) I(π;W)由下列式子决定:
I ( π , W ) = ∑ a ∈ X ∑ b ∈ Y π ( a ) P ( b ∣ a ) l o g P ( b ∣ a ) ∑ a ∈ X π ( a ) P ( b ∣ a ) I(\pi,W)=\sum_{a\in X}\sum_{b\in Y} \pi(a)P(b|a)log\frac{P(b|a)}{\sum_{a\in X}\pi(a)P(b|a)} I(π,W)=a∈X∑b∈Y∑π(a)P(b∣a)log∑a∈Xπ(a)P(b∣a)P(b∣a)
进一步,在 X X X上去不同的概率分布 π \pi π得到的互信息量的最大值定义为信道 W W W的信道容量即信道传输率 C ( W ) C(W) C(W),即
C ( W ) = m a x I ( π ; W ) C(W) = maxI(\pi;W) C(W)=maxI(π;W)
注意,这里信道容量 C ( W ) C(W) C(W)仅仅依赖于信道的迁移概率 P ( b ∣ a ) P(b|a) P(b∣a),并由此决定。 下面介绍信道编码定理
定理7.1(信道编码定理) 设离散无记忆信道 [ X , P ( y ∣ x ) , Y ] ] , P ( y ∣ x ) [X,P(y|x),Y]],P(y|x) [X,P(y∣x),Y]],P(y∣x)为信道迁移概率,其信道容量为 C ( W ) C(W) C(W),如果信息传送率 R R R满足下列不等式
R < C ( W ) RR<C(W)
那么当编码长度 n n n足够大时,解码错误率 P P P能够任意小。反之如果
R > C ( W ) R>C(W) R>C(W)
则无论采用什么样的编码方式,当 n n n足够大时,解码错误率 P P P接近于1.
总结一下,就是信息传送率R只有在小于计算出的信道容量理论值时,增大编码长度才能有效减小解码错误率 P P P,这为实际的量子信道信息传输提供了重要理论基础
先让量子比特 ∣ a ⟩ |a⟩ ∣a⟩与量子比特 ∣ b ⟩ |b⟩ ∣b⟩替代比特0与比特1,即
∣ a ⟩ = [ a 1 a 2 ] , ∣ b ⟩ = [ b 1 b 2 ] |a⟩=\left[\begin{matrix} a_1 \\ a_2 \end{matrix}\right],|b⟩=\left[\begin{matrix} b_1 \\ b_2 \end{matrix}\right] ∣a⟩=[a1a2],∣b⟩=[b1b2]
且各自以概率 p p p和 1 − p 1-p 1−p独立发生,且当前输出与过去无关的量子信息源被称为二元量子无记忆信息源。
下面说明量子信息源的密度算子。将量子比特 ∣ a ⟩ |a⟩ ∣a⟩与量子比特 ∣ b ⟩ |b⟩ ∣b⟩各自以概率 p p p和 1 − p 1-p 1−p发生的量子信息源被称为密度算子,用2*2的矩阵表示为
ρ = p ∣ a ⟩ ⟨ a ∣ + ( 1 − p ) ∣ b ⟩ ⟨ b ∣ \rho = p|a⟩⟨a|+(1-p)|b⟩⟨b| ρ=p∣a⟩⟨a∣+(1−p)∣b⟩⟨b∣
其中 ⟨ a ∣ ⟨a| ⟨a∣是 k e t ∣ a ⟩ ket|a⟩ ket∣a⟩的共轭转置,被称为左矢(bra)。在了解了量子信道的定义及密度算子之后,就可以着手计算量子信息的冯诺依曼熵了,下面来看看其计算方法。
香农熵
我们知道传统信息源采用的是香农熵,它解决了对信息的量化度量问题。对于一个随机变量 X X X,它的定义如下:
H ( X ) = − ∑ x P ( x ) l o g 2 [ P ( x ) ] H(X) = -\sum_{x}P(x)log_2{[P(x)]} H(X)=−x∑P(x)log2[P(x)]
它的含义是变量 X X X的不确定性越大,熵也就越大,把它搞清楚所需要的信息量也就越大。
冯诺依曼熵
冯诺依曼熵是针对于量子信息而产生的熵概念,它的内容如下:
假设对应于 r r r元量子信息源的密度算子为 ρ \rho ρ,其本征值为 λ 1 , λ 2 , ⋯ , λ n \lambda_1,\lambda_2,\cdots,\lambda_n λ1,λ2,⋯,λn,则冯诺依曼熵被定义为
H ( ρ ) = − ∑ i = 1 r λ i l o g λ i H(\rho) = -\sum_{i=1}^{r}\lambda_ilog\lambda_i H(ρ)=−i=1∑rλilogλi
总结
从上述香农熵和冯诺依曼熵的介绍中我们可以得知,经典统计中的核心问题是求系统中处于某个微观态的概率,而量子统计中的核心问题是求系统的密度矩阵。
上面已经详细的介绍了经典信道的定义、信道编码定理、香农熵等与经典信道有关的内容,同时也列出了二元量子信道的定义,按照我们的tradition,经典信道与量子信道应该是一脉相承,而量子信道就是后浪!我们的target就是要找到量子信道的信道容量(信息最大传送速率),当然,在保证错误率非常非常低的条件下。下面先看看编码的传送速率(将bit用qubit表示)
量子信道Q的信道编码映射 ϕ \phi ϕ的定义:映射 ϕ \phi ϕ是从包含M种信息集合 M = 1 , 2 , ⋯ , M M={1,2,\cdots,M} M=1,2,⋯,M中的信息m到X上长度为n的qubit序列上的映射,跟经典信道编码道理一样,这个编码速率由以下式子决定。
R = 1 n l o g M R = \frac{1}{n}logM R=n1logM
对应解码的出错率为
p ϵ = 1 M ∑ m ∈ M p r ψ ( ρ n ( ϕ ( m ) ) ) p_{\epsilon}=\frac{1}{M}\sum_{m\in M}p_{r}\psi(\rho^n(\phi(m))) pϵ=M1m∈M∑prψ(ρn(ϕ(m)))
同样进行类比得到关于量子信道容量的相关内容,下面看一看量子信道 Q Q Q的信道容量,假设信道 Q Q Q的输入字母集合 X X X为
X = { ∣ a 1 ⟩ , ∣ a 2 ⟩ , ⋯ , ∣ a N ⟩ } X = \{|a_1⟩,|a_2⟩,\cdots,|a_N⟩\} X={∣a1⟩,∣a2⟩,⋯,∣aN⟩}
对应 ∣ a i ⟩ |a_i⟩ ∣ai⟩输入将其信道的输出视为信息源的输出,其密度算子用 ρ i \rho_i ρi表示,此时如果利用 X X X上的概率分布 π ( i ) \pi(i) π(i)求出 ρ i \rho_i ρi的平均值,计算得到
ρ ˉ = ∑ i = 1 N π ( i ) ρ i \bar \rho=\sum_{i=1}^N\pi(i)\rho_{i} ρˉ=i=1∑Nπ(i)ρi
这个结果与经典信息论中的互信息量的对应关系由下列等式给出
Δ H ( π , Q ) = H ( ρ ˉ ) − ∑ i π ( i ) H ( ρ i ) \Delta H(\pi,Q)=H(\bar \rho)-\sum_i \pi(i)H(\rho_i) ΔH(π,Q)=H(ρˉ)−i∑π(i)H(ρi)
其中 H ( ∙ ) H(\bullet) H(∙)表示冯诺依曼熵,量子信道容量 C C C被定义为取对应于 Δ H ( π , Q ) \Delta H(\pi,Q) ΔH(π,Q)的输入字母集合上的概率分布最大值,即
C ( Q ) = m a x p i Δ H ( π , Q ) C(Q) = max_{pi}\Delta H(\pi,Q) C(Q)=maxpiΔH(π,Q)
下面介绍信道编码定理
定理7.2 (量子信道编码定理)设离散无记忆量子信道 [ X , ρ ( ∣ a ⟩ ) , Y ] [X,\rho(|a⟩),Y] [X,ρ(∣a⟩),Y]的输出由密度算子 ρ ( ∣ a ⟩ ) \rho(|a⟩) ρ(∣a⟩)完全决定,信道容量为 C ( Q ) C(Q) C(Q)m,如果传送速率满足不等式:
R < C ( Q ) RR<C(Q)
当编码长度n足够大时,一定存在解码错误率 p p p。能够以任意小的代码体系。反之,如果
R > C ( Q ) R>C(Q) R>C(Q)
则无论采用什么样的编码,当编码长度n足够大时,解码错误率 p ϵ p_{\epsilon} pϵ渐进于1
从上述定理我们得知,能够达到任意小错误率的传送速率界限为量子信道容量。但是如何能够接近量子信道容量传送速率、使得任意小错误率的具体编码方法还在研究之中,希望我们都能为其贡献出一份力量!