文章名称
Causal Effect Inference with Deep Latent-Variable Models
核心要点
今天介绍一篇基于生成模型的因果推断的文章,文章仍然关注binary treatment(尽管可是扩展到multiple treatment)下的CATE场景。作者采用VAE从noisy proxies里学习完整的confounder的隐向量表示。
方法细节
问题引入
通常情况下,观察数据分析的因果推断模型都假设尽可能的控制所有的confounder,但在真实世界里,其实更多的拿到的是confounder的某种具有噪声或包含其他不确定性影响因素的代理变量(noisy proxies)。我们需要利用这些代理变量学习出confounder的某种表示,并在此基础上,准确的估计causal effect。具体的因果图如下图所示,我们期望观测到所以confounder ,但实际只观测到noisy proxies 。
我们期望能估计CATE,就需要估计各个treatment下的potential outcome。如下图所示,时候的potential outcome是的期望。而所有confounder 分布下,的积分。通过链式法则以及条件独立性,最终被拆分为观测条件概率的积分。只要我们能够从中恢复的联合分布,就可以得到和,进而识别causal effect。
具体做法
作者通过构建VAE来从中恢复的联合分布。
(具体怎么做... 明天再说...)
代码实现
(留坑待填...)
心得体会
deep generative model
因为missing counterfactual的问题,causal inference 可以被看做是missing data的问题。而生成相似样本正是生成模型的强项。同时,生成模型能够有效的学习隐变量表示,更好的做disentangle。比如,VAE,AAE等模型。个人认为,生成模型可以扩展出更多有趣的方法。