复高斯分布(Complex Gaussian Distribution)是一种描述复数随机变量的概率分布。对于一个复随机变量 ( Z ),其复高斯分布的概率密度函数(Probability Density Function, PDF)通常表示为:
[ f Z ( z ) = 1 π σ 2 e − ∣ z − μ ∣ 2 σ 2 f_Z(z) = \frac{1}{\pi \sigma^2} e^{-\frac{|z-\mu|^2}{\sigma^2}} fZ(z)=πσ21e−σ2∣z−μ∣2 ]
其中:
需要注意的是,这里的复数 ( z z z ) 和 ( μ \mu μ ) 是复平面上的值。这样定义的复高斯分布是二维的,包括实部和虚部。
对于一维的复高斯分布,即只考虑实部或虚部的情况,概率密度函数会略有不同,但整体形式仍然类似。
如果一个向量 ( Z \mathbf{Z} Z ) 的每个元素都服从复高斯分布,那么整个向量 ( Z \mathbf{Z} Z ) 的概率密度函数可以通过各个元素的概率密度函数的乘积来表示。
假设 ( Z \mathbf{Z} Z ) 是一个包含 ( N N N ) 个元素的复向量,其中每个元素 ( Z i Z_i Zi ) 都是复高斯分布的随机变量。那么,( Z \mathbf{Z} Z ) 的概率密度函数可以表示为:
[ f Z ( z ) = ∏ i = 1 N f Z i ( z i ) f_{\mathbf{Z}}(\mathbf{z}) = \prod_{i=1}^{N} f_{Z_i}(z_i) fZ(z)=∏i=1NfZi(zi) ]
其中:
这个表示假设各个元素之间是相互独立的。这种情况下,整个复向量的概率密度函数就是各个元素概率密度函数的乘积。
如果你希望考虑一个矩阵的情况,其中每个元素都是复高斯分布的随机变量,你可以采用类似的思路。
假设矩阵 ( Z \mathbf{Z} Z ) 是一个 ( M × N M \times N M×N ) 复矩阵,其中每个元素 ( Z i j Z_{ij} Zij ) 是一个复高斯分布的随机变量。那么,整个矩阵 ( Z \mathbf{Z} Z ) 的概率密度函数可以表示为各个元素概率密度函数的乘积。这是基于独立同分布的假设,即矩阵的各个元素之间是相互独立的。
[ f Z ( z ) = ∏ i = 1 M ∏ j = 1 N f Z i j ( z i j ) f_{\mathbf{Z}}(\mathbf{z}) = \prod_{i=1}^{M} \prod_{j=1}^{N} f_{Z_{ij}}(z_{ij}) fZ(z)=∏i=1M∏j=1NfZij(zij) ]
其中:
需要注意的是,这种表示假设矩阵的各个元素是相互独立的,这在某些情况下可能不符合实际情况。如果矩阵的元素之间存在相关性,那么概率密度函数的表示可能会更为复杂。
Robust Beamfocusing for FDA-Aided Near-Field
Covert Communications With Uncertain Location
2023 IEEE ICC
Let ( D w , θ w ) \left(D_{\mathrm{w}}, \theta_{\mathrm{w}}\right) (Dw,θw) denote the location of Willie. We assume Willie is synchronized with Alice with the full knowledge of the carrier frequencies, and the channel vector h H ( D w , θ w ) \mathbf{h}^{H}\left(D_{\mathrm{w}}, \theta_{\mathrm{w}}\right) hH(Dw,θw) . This is the worst case for legitimate nodes to analyze the lower bound of covert communications performance. The hypothesis test at Willie is given by
{ H 0 : y w ( n ) = z w ( n ) , H 1 : y w ( n ) = h w H w s ( n ) + z w ( n ) , \left\{\begin{array}{l} \mathcal{H}_{0}: y_{\mathrm{w}}^{(n)}=z_{\mathrm{w}}^{(n)}, \\ \mathcal{H}_{1}: y_{\mathrm{w}}^{(n)}=\mathbf{h}_{\mathrm{w}}^{H} \mathbf{w} s^{(n)}+z_{\mathrm{w}}^{(n)}, \end{array}\right. {H0:yw(n)=zw(n),H1:yw(n)=hwHws(n)+zw(n),
where h w H \mathbf{h}_{\mathrm{w}}^{H} hwH is short for h H ( D w , θ w ) \mathbf{h}^{H}\left(D_{\mathrm{w}}, \theta_{\mathrm{w}}\right) hH(Dw,θw) , and z w ( n ) ∼ C N ( 0 , σ w 2 ) z_{\mathrm{w}}^{(n)} \sim \mathcal{C N}\left(0, \sigma_{\mathrm{w}}^{2}\right) zw(n)∼CN(0,σw2) is the AWGN at Willie with noise power σ w 2 \sigma_{\mathrm{w}}^{2} σw2 . From (5), the probability distribution functions (PDFs) of y w = [ y w ( 1 ) , y w ( 2 ) , … , y w ( N ) ] T \mathbf{y}_{\mathrm{w}}= \left[y_{\mathrm{w}}^{(1)}, y_{\mathrm{w}}^{(2)}, \ldots, y_{\mathrm{w}}^{(N)}\right]^{T} yw=[yw(1),yw(2),…,yw(N)]T under H 0 \mathcal{H}_{0} H0 and H 1 \mathcal{H}_{1} H1 can be derived as
P 0 ≜ P ( y w ∣ H 0 ) = 1 π N σ w 2 N e − y w H y w σ w 2 \mathbb{P}_{0} \triangleq \mathbb{P}\left(\mathbf{y}_{\mathrm{w}} \mid \mathcal{H}_{0}\right)=\frac{1}{\pi^{N} \sigma_{\mathrm{w}}^{2 N}} e^{-\frac{\mathbf{y}_{\mathrm{w}}^{H} \mathbf{y}_{\mathrm{w}}}{\sigma_{\mathrm{w}}^{2}}} P0≜P(yw∣H0)=πNσw2N1e−σw2ywHyw
and:
P 1 ≜ P ( y w ∣ H 1 ) = 1 π N ( ∣ h w H w ∣ 2 + σ w 2 ) N e − y w H y w ∣ h w H ∣ 2 + σ w 2 \mathbb{P}_{1} \triangleq \mathbb{P}\left(\mathbf{y}_{\mathrm{w}} \mid \mathcal{H}_{1}\right)=\frac{1}{\pi^{N}\left(\left|\mathbf{h}_{\mathrm{w}}^{H} \mathbf{w}\right|^{2}+\sigma_{\mathrm{w}}^{2}\right)^{N}} e^{-\frac{\mathbf{y}_{\mathrm{w}}^{H} \mathbf{y}_{\mathrm{w}}}{\left|\mathbf{h}_{\mathrm{w}}^{H}\right|^{2}+\sigma_{\mathrm{w}}^{2}}} P1≜P(yw∣H1)=πN(∣hwHw∣2+σw2)N1e−∣hwH∣2+σw2ywHyw