如图1所示,前两章我们学习了如何识别因果效应,将因果量转化为统计量,这一章我们学习如何估计因果效应。
首先回忆下之前学过的相关概念。
个体因果效应。
I T E = Y i ( 1 ) − Y i ( 0 ) ITE = Y_i(1) - Y_i(0) ITE=Yi(1)−Yi(0)
平均因果效应
A T E = E [ Y i ( 1 ) − Y i ( 0 ) ] ATE = E[Y_i(1) - Y_i(0)] ATE=E[Yi(1)−Yi(0)]
条件平均因果效应,ATE对应的是 whole population, CATE对应的是 subpopulation。
C A T E = E [ Y ( W = 1 ) ∣ X = x ] − E [ Y ( W = 0 ) ∣ X = x ] CATE = E[Y(W=1)|X=x] - E[Y(W=0)|X=x] CATE=E[Y(W=1)∣X=x]−E[Y(W=0)∣X=x]
在本章我们默认只考虑可识别情况,即都满足unconfoundedness和positivity。
根据调整公式可得,
τ = E [ Y ( 1 ) − Y ( 0 ) ] = E W [ E [ Y ∣ T = 1 , W ] − E [ Y ∣ T = 0 , W ] ] \tau=E[Y(1)-Y(0)]=E_W[E[Y|T=1,W]-E[Y|T=0,W]] τ=E[Y(1)−Y(0)]=EW[E[Y∣T=1,W]−E[Y∣T=0,W]],为了估计因果效应,最直接的想法是对图2所示的两个期望建模,具体模型可以是各种方法,比如线性回归,神经网络。
建模后的公式可转化为如图3所示的形式,进一步转化,可以得到
ATE COM Estimator: τ ^ = 1 n ∑ i ( μ ^ ( 1 , w i ) − μ ^ ( 0 , w i ) ) \hat{\tau}=\frac{1}{n}\sum_i(\hat{\mu}(1,w_i)-\hat{\mu}(0,w_i)) τ^=n1∑i(μ^(1,wi)−μ^(0,wi))
i表示每个样本,n表示样本数。
这是ATE的表达式,我们还可以进一步推到CATE的表达式:
μ ( t , w , x ) = E [ Y ∣ T = t , W = w , X = x ] \mu(t,w,x)=E[Y|T=t,W=w,X=x] μ(t,w,x)=E[Y∣T=t,W=w,X=x](W是调整集合,X是子组依赖的变量,即CATE的condition)
CATE COM Estimator: τ ^ ( x ) = 1 n x ∑ i : x i = x ( μ ^ ( 1 , w i , x ) − μ ^ ( 0 , w i , x ) ) \hat{\tau}(x)=\frac{1}{n_x}\sum_{i:x_i=x}(\hat{\mu}(1,w_i,x)-\hat{\mu}(0,w_i,x)) τ^(x)=nx1∑i:xi=x(μ^(1,wi,x)−μ^(0,wi,x))
这种简单的COM模型在高维时会遇到一个问题,如图4所示,假如我们将T和W输入模型进行拟合,这时就会主线一个问题,T是1维的,相对于高维的W,在模型拟合中很容易被忽略。这样得到的 τ ^ \hat{\tau} τ^会逼近于0.
为了解决上述问题,GCOM提出一个简单的策略,如图5所示,直接用两个模型 μ 0 \mu_0 μ0和 μ 1 \mu_1 μ1分别拟合T=1和T=0的两组数据。
这样做的问题是,在 μ 1 \mu_1 μ1模型中没有使用T=0的数据,而在 μ 0 \mu_0 μ0模型中,也没使用T=1的数据,得到的结果 τ ^ \hat\tau τ^会有很大方差。
为了更好地利用全部数据,我们继续学习两个算法。
TARNet总结COM和GCOM的情况,选择先根据W数据拟合模型,然后分两个小子网络,分别值拟合T=0和T=1的数据,如图6所示,
这个模型虽然相对于COM提高了数据的利用效率,但在子网络中还是没有用到全部的数据。
X-Learner为了提高数据利用效率,首先,估计 μ ^ 1 ( x ) \hat{\mu}_1(x) μ^1(x)和 μ ^ 0 ( x ) \hat{\mu}_0(x) μ^0(x)(类似GCOM的第一步)然后,不像GCOM直接分组估计,而是利用第一步得到的两个函数与数据再进一步结合,计算ITES,处理组: τ ^ 1 , i = Y i ( 1 ) − μ ^ 0 ( x i ) \hat{\tau}_{1,i}=Y_i(1)- \hat{\mu}_0(x_i) τ^1,i=Yi(1)−μ^0(xi),对照组: τ ^ 0 , i = μ ^ 1 ( x i ) − Y i ( 0 ) \hat{\tau}_{0,i}=\hat{\mu}_1(x_i)-Y_i(0) τ^0,i=μ^1(xi)−Yi(0)。这样得到的 τ \tau τ便嵌入了整个数据的信息,最后对学到的 τ \tau τ进行re-weighint,完整的流程如图7所示。
这个模型有个很有趣的一点,就是他拿对于x的propensity score 对x的函数 τ ( x ) \tau(x) τ(x)进行balance,这背后隐藏一个假设,那就是 τ ( x ) \tau(x) τ(x)函数没有改变其confounding bias的关系。
那么在表征学习中,可不可以也假设经过卷积网络的表征,也可以进行blance confounder bias?比如10个原型,我们设其他9个原型为X,剩下一个原型为T,然后计算T对结果的因果效应?
图7的末尾提到了 propensity score,我们来学习一下。
倾向得分,其目的很简单,通过分配权重使数据满足unconfoundedness。
e ( W ) ≜ P ( T = 1 ∣ W ) e(W)\triangleq P(T=1|W) e(W)≜P(T=1∣W)
由此可得到倾向得分理论,这个方法的重点在于用一个标量e(W)替换了高维向量W。如图8所示,W对T的效应的分布就是P(T|W),那么直接用一个函数e(W)去拟合P(T|W),就可以直接用标量e(W)替换W了。
换句话说,就是如果W可以block T 到 Y 的后门路径,那么e(W)也可以。
更正式的定义如下:
如果W满足positivity和unconfoundedness,则
( Y ( 1 ) , Y ( 0 ) ) ⊥ ⊥ T ∣ W = > ( Y ( 1 ) , Y ( 0 ) ) ⊥ ⊥ T ∣ e ( W ) (Y(1), Y(0)){\perp \!\!\! \perp}T|W =>(Y(1), Y(0)){\perp \!\!\! \perp}T|e(W) (Y(1),Y(0))⊥⊥T∣W=>(Y(1),Y(0))⊥⊥T∣e(W)
这个在观察性研究中该怎么证明?
如果大家还记得第2章的内容,会发现e(W)还有一个好处,就是他的降维提高了positivity的能力。
Also named as IPTW(inverse probability of treatment weighting).
τ ≜ E [ Y ( 1 ) − Y ( 0 ) ] = E [ 1 ( T = 1 ) Y e ( W ) ] − E [ 1 ( T = 0 ) Y 1 − e ( W ) ] \tau \triangleq E[Y(1)-Y(0)] = E[\frac{1(T=1)Y}{e(W)}]-E[\frac{1(T=0)Y}{1-e(W)}] τ≜E[Y(1)−Y(0)]=E[e(W)1(T=1)Y]−E[1−e(W)1(T=0)Y]
τ ^ = 1 n 1 ∑ i : t i = 1 y i e ^ ( w i ) − 1 n 0 ∑ i : t i = 0 y i 1 − e ^ ( w i ) \hat{\tau}=\frac{1}{n_1}\sum_{i:t_i=1}\frac{y_i}{\hat{e}(w_i)} - \frac{1}{n_0}\sum_{i:t_i=0}\frac{y_i}{1-\hat{e}(w_i)} τ^=n11∑i:ti=1e^(wi)yi−n01∑i:ti=01−e^(wi)yi
该方法主要有两个缺点,
其过度依赖于倾向值得分,e(x)出现一点偏差,ipw的误差就会急剧增大。为了解决这个问题,可以有两种方法:
在e(x)偏差时进行弥补(如对结果回归调整,DR)
提高对e(x)估计自身的robust(CBPS)。
当倾向得分过小时,IPW会变得很不稳定。
Doubly robust methods(DR):结合COM和Propensity Score
Matching;double machine learning;causal trees and forests
Introduction to Causal Inference