中文 / English
陈晓红获奖演说

QQ截图20171204111750.bmp

Chen_ChinaEconPrize_n16_2017_Chi.pdf

Chen-ChinaEconPrize-n16-2017.pdf


首先,我诚挚地感谢夏斌理事长和北京当代经济学基金会设立并组织评选了中国经济学奖,这一奖项的宗旨是“鼓励理论创新、繁荣经济科学”,这项公益事业值得我们大家敬佩和赞赏,我也非常感谢今年评奖委员会对邹教授和我在计量经济学领域工作的认可。


能够与邹教授分享今年的中国经济学奖,我愧不敢当。除了人人皆知的“邹氏检验”,邹教授还对计量经济学、宏观经济学和中国经济做出了大量的开创性研究。更难能可贵的是,邹教授还对中国经济改革和经济学教育现代化做出了重大贡献。事实上,我本人就受益于邹教授当年设立的人大培训班。因此我倍感荣幸能够与邹教授分享今年的经济学奖。


基金会给我这个殊荣是对我这一代华人计量经济学家和女性经济学家的肯定,我希望此奖能够鼓励更多的年轻学者致力于计量经济学的创新。


一路走来,我获得了许多帮助和支持。我本科就读于武汉大学数学系。受益于中国政府的改革开放政策,和邹教授和黄达校长在人大创建的中美经济学培训班,我得以进入UCSD学习并在Halbert White指导下取得了经济学博士学位。在芝加哥大学任教期间我有幸得到Lars Peter HansenTom Sargent在学术上的悉心指导,Lars Hansen的严谨治学和Tom Sargent的虚心好学都为我留下了深刻的印象,可惜我当时缺乏自信,没能更好利用向他们和James Heckman等大师学习的机会。1999年我有幸得到了Peter Robinson教授给我去伦敦政经学院任教的机会, 并得到了他的悉心指点。在伦敦,我从与Peter Robinson, Richard Blundell, Oliver Linton,Javier Hidalgo, Xu Chenggang等经济学家的讨论中受益良多。2001年到2002年期间我访问了普林斯顿, 并得到了邹教授和Bo Honore的多次指点。邹教授和他太太Paula对所有人包括我在内的年轻访问学者都非常友好和关心。2002年到2007年期间,我又有幸跟Tom Sargent在纽约大学成为同事,可以再次向他学习。在我的学术生涯中,我还得到了Roger Gordon, Hsiao Cheng, Rosa Matzkin, Whitney Newey, James Powell, Don Andrews等教授的鼓励。共同的研究兴趣让我跟Ai Chunrong, Fan Yanqin, Hong Han, Li Tong, Oliver Linton, Sun Yixiao, Elie Tamer, Edward Vytlacil, Xiao Zhijie等人建立了长久的友谊。,今天Tom, Peter, Lars, Oliver, Chunrong, Tong, Han, Elie 和 Yixiao远渡重洋参加这次颁奖仪式,我深受感动。一直以来,我的家人也非常支持我的工作,借此机会,我对所有关心和帮助我的良师、同事、好友和亲人表示最诚挚的谢意!


我主要研究半非参模型和筛分方法。那么什么是模型?刚才Tom Sargent已经讲过,模型是由未知参数确定的概率分布族。半非参模型是由有限维和无限维未知参数共同确定的概率分布族,在这类模型中研究者往往对两部分未知参数均感兴趣。之前的经济研究主要使用参数模型,更确切地说是我们关注的参数都是有限维的模型。最近经济数据越来越多,且经济模型越发复杂,半非参模型也变得非常有用。刚才Lars Hansen已经讲过,这类模型使我们可以根据经济理论对感兴趣的未知参数部分添加相应约束,同时对不关心的其他未知参数部分做灵活处理。所以半非参数模型具有更广泛的使用范围。筛分方法可以用来估计并检验几乎所有的半非参数模型,且应用起来非常灵活。


筛分方法是通过在一系列筛空间上求解经验目标函数最优化问题来估计半非参模型。筛分方法主要包括选择目标准则和筛空间。所有用来估计非线性参数模型的现有目标准则都是合适的选择。经验准则一般包含两大类(参见 Newey-McFadden (1994) 等):一类是M准则,例如最大似然估计 (ML), 准ML, 分位数回归, 非线性最小二乘等;另一类是最小距离 MD准则,例如广义矩估计法 (GMM), 广义经验似然估计法 (GEL)等。筛空间也包含两大类(参见 Chen (2007) 等)。一大类是有限维的线性和非线性筛。其实每个做实证的研究者都在用这类筛分方法,现在的本科生也在应用这类方法。比如他们首先尝试线性回归,如果效果不理想就加入自变量的二次项,再尝试加入交叉项等。这其实就是幂级数多项式筛分法。不过幂级数多项式筛没有其他筛性能好。其他有限维的筛还包括多项式、傅里叶级数、样条函数、径向基筛、脊波筛、ANN人工神经网络等等。最近常讲的深度学习,就是由两层或多层人工神经网络构成,这是非常典型的非线性筛。这类筛都可以拟合非常复杂的函数。另一大类筛是具有各种惩罚约束的无限维的线性或者非线性筛。选好了目标准则和筛空间,接下来就可以通过简单的参数估计算法来估计这些半非参数模型。


我们可以选择不同的目标准则和筛分空间,这在估计半非参的不可分结构模型时非常灵活。这类模型可能还有内生性、潜在异质性或者潜在状态相关性等问题。在具体应用中,如何选取目标准则取决于模型和研究者关注的参数,例如没有内生性的非参数回归适用M准则,具有内生性的模型则更适合用MD或者GMM准则。筛空间的选择取决于我们掌握的关于未知函数的先验信息,例如保形筛可以近似函数的具体形状(凹形等)。这些信息可能直接或者间接地从经济或者计量模型当中得到。这种筛分方法可以很容易地在未知函数上添加形状、可加性、非负性或者其它约束,非常易于计算。一旦我们用有限维筛空间近似未知函数,则应用筛分方法就与参数法非线性估计一样简单。


筛分方法在估计具有内生性问题的半非参模型上特别有用,这类模型在产业组织、消费理论等领域很常见。举个例子,比如这个内生恩格尔曲线的形状不变系统,Y1li是家户i在产品l上的预算份额。比如l可能是食品支出、汽车加油支出或休闲支出等。Y2i是在所有非耐用品上支出的对数,它是内生变量,这是因为家户每个月会同时决定储蓄和在非耐用品上的支出,因此残差项和Y2i具有相关性。所以这种情况下我们不能使用简单的回归。这种恩格尔曲线hl是什么形式?它不一定都是线性的,可能会出现非线性,所以我们在估计时要尽可能灵活,要让数据告诉我们这些函数hl的具体形式。下面两篇文章属于半非参均值工具变量 (IV) (Blundell, Chen, Kristensen, 2007) 和半非参分位数工具变量 (Chen-Pouzo, 2009)。本质上是为内生变量Y2找到外生的工具变量,进而利用条件矩约束进行估计。对此我们可以使用筛分最小距离(MD)方法估计。针对非参数工具变量回归模型,用有限维的线性筛近似未知内生函数h之后,筛分最小距离法就是用简单的两阶段最小二乘法 (2SLS)来估计有限维筛参数。


这张图表来源于Chen-Christensen2017),是使用英国家户数据估计的内生恩格尔曲线。X轴是家庭总支出的对数,Y轴是相应类别的家庭预算份额,红色实线代表预估的不同消费类别的恩格尔曲线,黑线是估计的一致置信区间。可以看出,不同消费类别的恩格尔曲线形状都不一样,并且都不是线性的,这从一个侧面印证了筛分方法的灵活性。估计内生恩格尔曲线的筛分法可以同样用来估计结构化的需求函数并应用在消费理论或者产业组织IO)中。


下张图表也来源于Chen-Christensen2017),是内生需求曲线 h 里面家户对汽油的需求量。这里P是价格,Y代表家庭收入。P是内生变量。我们不知道h的具体形式。一个有趣的问题是汽油税的变化如何影响消费者福利。这时消费者剩余和无谓损失都是合适的福利度量。我们可以研究如果汽油价格从P0变为P1,这将如何影响消费者剩余。之前大家不知道如何处理内生的价格变量,现在应用筛分方法很容易处理内生性问题。这个图是汽油价格上涨导致的福利影响曲线。红线是福利变化,黑线是筛估计的一致置信区间。左侧代表家庭收入为七万两千五百美元,右侧是四万两千五百美元。从图中可以看出,汽油价格上升对低收入家庭的影响要比对高收入家庭的影响更加明显。


下面这张图表来源于耶鲁博士Compiani的求职论文Compiani2017),他使用筛分非参数工具变量回归法(NPIV来估计产业组织中的结构化内生需求和需求价格弹性问题。现有的产业组织文献主要使用BLP方法估计需求,但是这个方法依赖于有限维参数假设。这张图比较了使用BLP和筛分非参数工具变量回归法得到的有机草莓自价格弹性函数。从图可以看出,使用筛分非参数工具变量回归法得到的价格弹性(蓝色)高于BLP方法(红色)。很明显BLP低估了自价格弹性,这可能是因为草莓价格数据不满足BLP在残差分布和未知函数形式上的参数假设。


在资产定价模型方面,基本上都可以用下面这个条件矩约束模型来表示。这方面知识我是跟Lars Hansen学的。式子中M表示随机折现因子或定价核,也有人称之为消费的跨期边际替代率。之前研究资产定价问题的绝大多数实证研究都应用了这个框架,对M做了参数化假定,然后利用Hansen(1982)GMM方法估计。比如Hansen-Singleton (1982) 就是这类方法的代表作,这篇文章非常有名,大家都已经很熟悉。但是我们可以使用半非参数模型,不对M的具体形式做参数化假设,借助筛分方法估计模型。这样模型可以更加灵活和稳健。比如我和Ludvigson 2009年的文章就使用非线性ANN筛来近似M中的未知习惯形成函数。由于这个问题中的未知函数包含多个变量,我们使用了非线性ANN筛,效果比线性筛更理想。


这里我快速地总结一下我在筛分最小距离法方面的工作。基本上对一大类半非参数条件矩约束模型来说,未知函数h可以取决于内生变量,这可能来自于代理人最优行为问题,也可以来自测量误差问题等。在这类问题上,我和Ai Chunrong合作发表了三篇论文。首先Ai-Chen(2003)是对半非参数条件矩约束模型提出筛MD方法估计,解决了有限维未知参数β的微信截图_20171204112349.png最优一致估计和渐近分布等问题。另外两篇论文是对 Ai-Chen(2003)文章的延伸,Ai-Chen(2007)得到了具有不同条件集的一般误判模型里的β的一致估计和渐进正态性。关于不同条件集的应用,可以考虑动态博弈问题中不同的参与者具有不同的信息集,或者交叉但不完全一样的信息集的情况。Ai-Chen(2012)则考虑了在半非参数条件顺序矩约束下对β的最优一致估计,半非参数条件顺序矩在面板数据或时间序列问题中比较常见。我很喜欢与做实证问题的学者(比如Richard Blundell)一起合作,因为他们会问一些非常有意思的计量问题。在内生恩格尔曲线系统问题里,我们(Blundell,Chen,Kristensen 2007)更关注的是未知函数h,也就是恩格尔曲线本身的估计。所以我们研究了对未知内生函数h的非参数工具变量回归,首次确定了筛2SLS 估计值在均方误差平方根下的收敛速率。对更广泛的半非参数条件矩约束模型,我和Pouzo(2009, 2012,2015)研究了有限维参数β、无限维内生函数h、和h的泛函的筛估计的收敛速率和统计推断。最近,我和 Christensen对非参数工具变量回归模型中h的筛2SLS估计值给出了在上确界范数下的最优收敛速率,同时研究了非线性政策福利泛函h的推断和一致置信区间,这可以帮助研究者做政策反事实分析。


因为时间关系我不能讨论所有的四个例子了。因为James Heckman的贺词希望我做更多的工作(笑),所以我应该提一下接下来感兴趣的领域。目前仍然缺乏关于使用非线性筛(如ANN)近似的收敛速度慢于微信截图_20171204112349.png的泛函的推断结果,如一致置信区间或筛Wald和筛QLR检验。我将会继续研究这个课题。此外,在为分析具有非线性非高斯潜在结构的半非参动态模型(如DSGE)提出的基于数值模拟的筛分方法上也需要更深入的研究。大数据时代带来更加复杂的经济模型、更多的政策反事实分析的可能性,更多的由内生性和潜在动态状态相关性、非平稳性、测度误差、变量和模型选择带来的问题。这些大数据会让我们的研究变得更加复杂。值得注意的是惩罚筛分法仍然是适用的,事实上现在很多机器学习方法都是在更灵活的应用各种惩罚筛分方法。此外,虽然现在计算机的运算能力增长了许多,但是数据量的增长速度更快。为了应对这一矛盾,Robbins-Monro的随机优化算法又开始流行起来。这也是我感兴趣的领域之一。我们需要更谨慎地研究随机优化算法和计量性质之间的相互作用,并且相应修改现有模型和推断的理论。谢谢。

 



◆◆◆转载须注明来源:北京当代经济学基金会◆◆◆