京公网安备 11010802034615号
经营许可证编号:京B2-20210330
经济学家为何在大数据浪潮面前如此淡定
大数据如今被各行业追捧,但是有个现象还是值得注意的——在经济学领域,关于大数据应用的文章却不多。按理说,经济学是社会科学中最“科学”的一支,又以其“帝国主义”的霸权思想全方位侵入各个社科领域,为何在大数据浪潮面前如此淡定?不冲上去做一个弄潮儿?
小编个人觉得这大概与数据的特性有关,经济学使用数据的重点在于identification,而当前的大数据因为数据生产过程不透明及样本偏差等,难以做出学界认可的结果。
不明白的话,我们来看一个研究的例子,来说明为什么是这样:
之前某公共号推送了一篇文章,讲施新政、李宏彬和吴斌珍三位老师合作撰写的American Economic Review Papers and Proceedings论文“The Retirement Consumption Puzzle in China”,实证考察了中国居民的退休消费情况。文章的背景如下:
根据平滑消费理论,人们会调整一生各阶段的消费水平使之大致相当。然而,大量文献却发现人们的消费水平会在退休后发生大幅度下降,这与平滑消费理论发生了冲突。许多学者都试图从不同角度对此进行解释,本文作者也加入了这一行列。
在介绍作者思路之前,先来思考一下,如果我们用“大数据”要怎么做?
首先搞消费研究那得找万能的淘宝和京东啊,假设我们拿到了所有淘宝、京东的数据,知道大家都买买买了什么。然而这里有个问题,要研究的是消费水平是否会在退休后大幅度下降,退休的人都用这两个平台吗?!这里面临了大数据的问题一:所有的企业的用户数据和真实的人口都存在偏差,而且往往偏差很大。就拿相对最全的银行数据来说(金融方面),覆盖的也往往是本行的用户数,选择某一银行的人可能本身就有样本偏差,而且还不一定能覆盖其它如股票、信托等金融方式。
那么我们假设所有中国人都用淘宝和京东,这样是不是就可以了呢?
也不行。
因为你不是所有东西都在这上面买,我买个包子、买根葱,总不至于也上京东吧?
那我们假设全国菜市场也都联网了,我知道你都买了多少菜,多少鱼,总行了吧?
可能还是不行。
因为我如果根本就不去买,退休后在家里自己种菜呢?自己蒸馒头呢?而且这种现象恐怕不稀少吧?这都会造成数据的系统性偏差。
让我们来看看作者们是怎么分析数据中消费品类型的影响的:
在本文作者看来,现有研究的实证分析尚存在一些不足:首先,现有研究对消费的定义并不完善。消费中有一部分是与工作相关或者可以被家庭内部生产所替代。在考察退休前后消费是否满足平滑消费理论时,应该先将这一部分剔除。然而,大多数现有研究由于数据的局限而未能这么做。其次,现有研究面临内生性问题。退休与否是一个高度内生的决策变量,不考虑退休内生性的实证考察结果很有可能存在偏误,进而也无法明确得到退休与消费之间的因果联系。
作者们在处理这一研究问题的时候还是采用了“传统数据”,中国城市家庭调查数据(China's Urban Household Survey, UHS),对消费内容进行了细致的分解,分出了工作相关消费、可被家庭生产替代的消费及其他消费。
对于内生性的问题:本文利用中国的强制退休政策,借助断点回归策略(RD)有效处理了内生性问题。中国的很多单位都实行强制退休政策(主要是政府、公共部门、国有企业、集体企业,男性60岁、女性55岁),作者基于此比较考察了退休前后年龄段人群所在家庭的消费变化情况。
作者们得出的结论是:
退休确实会使家庭的非耐用品消费显著下降21个百分点。不过这一下降主要是由工作相关开支减少、食品消费由在外进行转变为在家进行所造成的。其中后者主要是由于家庭内部食品消费价格更加低廉,而且退休群体有充足的时间在家准备食品。在剔除了这两项之后,作者发现退休并未对其他非耐用品消费造成显著影响,即平滑消费理论针对其他非耐用消费品仍然成立。
当然,要知道UHS的数据可不是想拿就能拿到的,现在经济学研究高质量数据变得非常非常重要,而且只要数据质量够好,根本不需要复杂的模型。有研究表明,经济学主流期刊上面OLS仍然是使用最多的回归方式,而不是什么DID,RD,GMM。
结论
其实经济学家对数据是非常敏锐的,早已经不局限在传统的统计年鉴、普查数据,他们扒地方志及历史文献,用气象数据、遥感数据,现在也有非常多的研究开始写爬虫抓互联网数据。所以经济学家不是不用数据,也不是不用大量的数据,而是对“大数据”的使用持审慎的态度。
本文举的例子主要是想说明数据的选择与研究问题的需求密不可分,这一点不论数据"大小"。很多时候,研究人员并不能很好地了解拿到的大数据的产生方式,及可能存在的偏差,导致使用起来会比较盲目。特别地,互联网公司的业务变化速度非常快,算法脚本经常更新,用户结构性的变化也不小,这些对于外部研究者都是很难了解的。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
主讲人简介 张冲,海归统计学硕士,CDA 认证数据分析师,前云南白药集团资深数据分析师,自媒体 Python 讲师,全网课程播放量破 ...
2026-04-10在数据可视化与业务分析中,同比分析是衡量业务发展趋势、识别周期波动的核心手段,其核心逻辑是将当前周期数据与上年同期数据进 ...
2026-04-10在机器学习模型的落地应用中,预测精度并非衡量模型可靠性的唯一标准,不确定性分析同样不可或缺。尤其是在医疗诊断、自动驾驶、 ...
2026-04-10数据本身是沉默的,唯有通过有效的呈现方式,才能让其背后的规律、趋势与价值被看见、被理解、被运用。统计制图(数据可视化)作 ...
2026-04-10在全球化深度发展的今天,跨文化传播已成为连接不同文明、促进多元共生的核心纽带,其研究核心围绕“信息传递、文化解读、意义建 ...
2026-04-09在数据可视化领域,折线图是展示时序数据、趋势变化的核心图表类型之一,其简洁的线条的能够清晰呈现数据的起伏规律。Python ECh ...
2026-04-09在数据驱动的时代,数据分析早已不是“凭经验、靠感觉”的零散操作,而是一套具备固定逻辑、标准化流程的系统方法——这就是数据 ...
2026-04-09长短期记忆网络(LSTM)作为循环神经网络(RNN)的重要改进模型,凭借其独特的门控机制(遗忘门、输入门、输出门),有效解决了 ...
2026-04-08在数据分析全流程中,数据质量是决定分析结论可靠性的核心前提,而异常值作为数据集中的“异类”,往往会干扰统计检验、模型训练 ...
2026-04-08在数字经济飞速发展的今天,数据已渗透到各行各业的核心场景,成为解读趋势、优化决策、创造价值的核心载体。而数据分析,作为挖 ...
2026-04-08在数据分析全流程中,数据处理是基础,图形可视化是核心呈现手段——前者负责将杂乱无章的原始数据转化为干净、规范、可分析的格 ...
2026-04-07在数据分析与统计推断中,p值是衡量假设检验结果显著性的核心指标,其本质是在原假设(通常为“无效应”“无差异”)成立的前提 ...
2026-04-07在数字经济深度渗透的今天,数据已成为企业生存发展的核心资产,企业的竞争本质已转变为数据利用能力的竞争。然而,大量来自生产 ...
2026-04-07Python凭借简洁的语法、丰富的生态库,成为算法开发、数据处理、机器学习等领域的首选语言。但受限于动态类型、解释性执行的特性 ...
2026-04-03在深度学习神经网络中,卷积操作是实现数据特征提取的核心引擎,更是让模型“看懂”数据、“解读”数据的关键所在。不同于传统机 ...
2026-04-03当数字化转型从企业的“战略口号”落地为“生存之战”,越来越多的企业意识到,转型的核心并非技术的堆砌,而是数据价值的深度挖 ...
2026-04-03在日常办公数据分析中,数据透视表凭借高效的汇总、分组功能,成为Excel、WPS等办公软件中最常用的数据分析工具之一。其中,“计 ...
2026-04-02在数字化交互的全场景中,用户的每一次操作都在生成动态的行为轨迹——电商用户的“浏览商品→点击详情→加入购物车”,内容APP ...
2026-04-02在数字化转型深度推进的今天,企业数据已成为驱动业务增长、构建核心竞争力的战略资产,而数据安全则是守护这份资产的“生命线” ...
2026-04-02在数据驱动决策的浪潮中,数据挖掘与数据分析是两个高频出现且极易被混淆的概念。有人将二者等同看待,认为“做数据分析就是做数 ...
2026-04-01