我只想说机器学习的狂风真是吹到了所有的经济学角落。两年前开始,我与学生一直在研究机器学习与DSGE,尤其是在异质性代理人模型这种高维动态经济模型中的应用(中国人民大学的王芝清博士、浙江工商的古昕老师和我一起翻译的《量化宏观经济学导论及Julia应用》(东北财经大学出版社出版forthcoming)中有相关内容)。之前也看过山东大学陈强老师的相关微信推文(遗憾的是一直没时间看他的机器学习的书籍)——关于因果推断中的机器学习方法应用。
最近在学习计量理论的时候,看到了 Chernozhukov, V., Chetverikov, D., Demirer, M., Duflo, E., Hansen, C., Newey, W. and Robins, J. (2018), Double/debiased machine learning for treatment and structural parameters. The Econometrics Journal, 21:C1-C68。这几个作者不用多介绍了,计量领域的大佬和诺奖得主。
读懂这篇文章太难了,这个时候我又看到了Matheus Facure Alves(2022)的解读,只有数学含义,没有公式。所以我做了一些笔记,参考Matheus Facure Alves(2022)的内容和数据例子,使用stata给大家看看因果推断中的机器学习(Matheus Facure Alves(2022)使用的是python,目前很多机器学习的包都要依赖于python)。
一、OLS回归
大家肯定还记得夏天的“雪糕刺客”,我们家那位非常喜欢吃冰淇淋(当然,我也喜欢),尤其是俄罗斯的一款带脆皮饼的冰淇淋,但是这些冰淇淋还挺贵。从经济学原理来讲,冰淇淋的价格越高,冰淇淋的销量越低。Matheus Facure Alves(2022)提供了一套冰淇淋销售量和价格的数据,其中包含生产成本、温度、周几的变量:
cd "/Users/xuwenli/Library/CloudStorage/OneDrive-个人/DSGE建模及软件编程/教学大纲与讲稿/应用计量经济学讲稿/python-causality-handbook/causal-inference-for-the-brave-and-true/data"
insheet using ice_cream_sales.csv
sum
下面,我们来看看ols结果:
reg sales price,r
从上面的简单回归结果看出,越高的价格预测了越高的销售量。注意,我并没有说这个结果是越高的价格导致了越高的销售量。因为这里只是一元回归,可能存在严重的遗漏变量偏误问题,所以上述结果并没有干净地识别出价格对冰淇淋销售量的因果效应。
例如,工作日大家都没时间逛街买冰淇淋,周末总在山姆逛,冰淇淋的销售量自然要更高一些,如周日(7),而且工作日还有一些优惠和打折,所以也会影响价格。那么,周几这个变量就是很重要的混淆因子,如图所示:
* 如果没有安装sepscatter,输入
* ssc install sepscatter
sepscatter sales price,separat(weekday)
那么,我要加入遗漏变量:温度、冰淇淋成本、周几
reg sales price temp cost i.weekday,r
上述回归方程可以写成:
我们关心的是价格对销售量的影响,即参数。其它的参数都是协变量的参数,在因果推断中,我们并不关心它们的大小与显著性。但是,需要注意的是,我们不关心协变量系数,斌不意味着我们不关心协变量,因为如果我们没有正确的引入它们,处理效应就会有偏。
我们都知道,回归的时候得到的处理效应估计量是根据下列步骤得到:
第一步,用结果变量对所有的协变量进行回归,得到结果变量的余值:
第二步,用处理变量对所有的协变量进行回归,得到处理变量的余值:
第三步,用结果变量余值对处理变量余值进行回归,得到处理效应估计量:
更详细的推断参见Wooldridge的《计量经济学导论》。
上述步骤的直观含义其实非常简单:从结果变量和处理变量中剔除掉其它所有混淆因子引起的变动,留下结果变量和处理变量自身,然后看看它们两个之间的关系,就是单纯的(干净的)价格对销量的因果效应。
但是,问题在于,我们能剔除干净吗?答案是NO,但是正如我之前的推文里说的,我们做学术研究并不是要立刻揭示出真实的世界或经济运行,我们真正在做的事情其实是不断的揭示我们对真实世界经济的未知或忽视的东西。
从这个角度来看,机器学习方法也许比上述ols回归要更精确,或者在剔除混淆因子干扰这条路上更进一步。
二、机器学习回归
纠偏机器学习(Double/Debiased ML,DDML)在因果推断中的应用其实非常直观:当我们在构造结果变量和处理变量的余值时,使用机器学习方法。也就是说,
其中,表示用机器学习方法估计/预测,表示用机器学习方法估计/预测。
机器学习模型非常灵活,当我们估计结果变量和处理变量的余值时,ML模型可以刻画交互项和非线性特征。这就意味着,我们并不需要对协变量x和结果变量Y之间的关系,以及协变量X与处理变量D之间关系做出任何参数假设(显现/非线性、时变/时间不变等等)。如果没有不可观测的混淆因子,我们完全可以按照上述正交估计步骤来得到干净的处理效应:
第一步,用一个机器学习回归模型来根据协变量X调整结果变量Y,并得到结果变量的余值;
第二步,用一个机器学习回归模型来根据协变量X调整处理变量D,并得到结果变量的余值;
第三步,用结果变量余值与处理变量余值进行回归,得到处理效应。且此时可以使用OLS。
*首先安装ddml
* net install ddml, from(https://raw.githubusercontent.com/aahrens1/ddml/master)
global x temp cost i.weekday
set seed 2022
* ddml估计过程分为4步:
*(1)初始化ddml,并选择一个机器学习回归模型
ddml init partial, kfolds(5)
*(2)加入一个监督机器学习方法来估计结果变量和处理变量的条件期望
ddml E[Y|X]: reg sales $x
ddml E[D|X]: reg price $x
*(3)交叉检验“过度拟合”问题
ddml desc // 展示ddml的信息,可选项
ddml crossfit
*(4)估计因果效应
ddml estimate, robust
作为教学演示的目的,我们上面增加的监督机器学习模型是简单的线性回归模型,所以得到的DDML因果效应与上述OLS得到的效应非常接近。但是,需要注意的是,ddml包有5种机器学习模型。
关于机器学习模型在因果效应推断中的一些缺点,我们下回再来分解。