京公网安备 11010802034615号
经营许可证编号:京B2-20210330
真实和完备是大数据分析的基础
随着大数据时代的到来,网络数据的真实性问题日益受到关注。相较以抽样调查为主的小数据时代,在大数据时代,如何进行正确的数据清洗和数据分析,以便从海量信息源中获取真实而有价值的信息内容,并生成指向性清晰的决策指导,成为哲学社会科学界和自然科学界共同面临的课题。
数据来源:确保具备大数据品质
在中国人民大学新闻学院教授喻国明看来,高品质数据来源是确保大数据分析真实、可靠的首要条件。“根据国内外的相关技术发展情况分析,当前比较权威、可靠的大数据来源主要有两个,一是掌握多方面的社会运行数据的政府部门,二是在某一领域拥有数据采集能力的大型公司,如数字移动、网购、社交媒体、搜索引擎、输入法软件等公司。”
喻国明认为,大数据时代的一个重要特点,就是全方位、立体式的数据分析成为可能。“不过,单个部门或企业所掌握的大数据往往类别单一,对其的分析结论难免陷于零散、维度单一。”另外,从严格意义上讲,大数据不是政府、企业的“私有财产”,它与社会个体的权利和隐私密切相关,应当属于全社会。
那么,目前民间进行的大数据分析“靠谱”吗?上海交通大学舆情研究实验室主任谢耕耘介绍,如果对大数据来源进行分类,可以分为政府、大企业的定点监测,以及民间依靠软件等技术手段的数据挖掘。对此,喻国明这样评价:相对于政府部门与大型网络企业的大数据采集能力,仅仅从信息海洋中简单挖掘、捞取的部分所谓的“大数据”,远远不具备真正的大数据品质。
北京邮电大学互联网治理与法律研究中心主任李欲晓更愿意将大数据分析结果看作一种数据产品。“衡量其价值,关键在于它是否面向特定客户群提供了所需数据产品类型。”目前,社会各界已经意识到大数据时代的到来,许多机构和个人也在积极开发相关软件和产品,这个过程的最大价值,便是提升了全社会的大数据处理能力。
数据分类:建立更多有效标签
谢耕耘认为,通过搜索引擎的分析软件进行数据挖掘,是当前许多民间研究机构获取所谓“大数据”的主要途径。目前,付之应用的诸如“爬虫”等大数据挖掘软件,其作用是非常有限的——往往在只挖掘到几千条数据时,就被相关网络平台为防止机器人挖掘而设置的障碍所拦截,并被要求反复输入验证码。“因此,这种依靠软件来执行的数据挖掘方式,往往需要数十台、上百台服务器,以及高容量的带宽和大量的IP地址。”其挖掘所获得的大数据,通常是局部的、不完整的,难以推断整体状况。
从这个意义上看,尽管目前从事大数据分析的人力、机构很多,但真正做出可信服的研究成果的团队并不多。在李欲晓看来,当前的大数据分析尚未成熟,仍处于“成长期”。
喻国明认为,大数据由不同数据集构成,若想全面、立体式反映某一个体、事物、事件,其关键在于对不同数据集进行关联分析,而关联分析的前提是建立标签。“对每一个数据文本做标签,就像图书分类一样。几十万册的图书,有了分类,才能够有序管理。面对大数据的海量信息,有了标签,就可以轻松找出需要的信息。”尽管不可能存在一个100%包容性的大数据库,但对数据进行快速、有效的处理与整合,无疑能为未来深入、真实、可靠的分析夯实基础。
“有些标签是自然形成的。例如,通过社交媒体的个人资料,就可以轻松分出年龄、性别、职业等不同标签。还有一些标签,则要通过网络行为分析才能认定。例如,在分析个人言论的社会特征时,可根据网络发言使用的词频、语义进行计算,并依此为网民贴上早起群体、晚睡群体,时尚型消费者、保守型消费者,高收入者、低收入者等标签。”喻国明认为,在大数据时代,一个文本碎片被打上的有效标签越多,其可被利用的价值越大。
数据分析:以小数据为“校准”
中国社会科学院新闻与传播研究所研究员姜飞做了一个有趣的比喻,“在大数据时代,数据信息好比货币,要像研究货币一样研究信息数据。”在他看来,“信息货币”一旦不可信,也容易发生“金融危机”;要提高大数据分析的可信度,就要找到一个“校对的准绳”。
喻国明认为,传统的抽样调查在发布结论时,需同时公布调查是否遵守了“21条规则”(包括数据来源、调查方法、资助者等),以保证调查报告不会产生误导。未来,大数据分析也应该同步公布数据来源、数据量、数据截取的时间区间等有关数据品质的指标。“如果数据来源是通过‘爬取’软件获取,那么公布‘爬取’量有多大,可以在一定程度上帮助受众判断数据分析的真实度、可信度。”
另外,尽管小数据是小范围的、片段的,但它有一个核心价值,即能够提供准确的结构性分析,拥有可靠的统计学价值。喻国明表示,“大数据虽然信息丰满,但整体构造难以看清,因此,小数据能够成为大数据判断结构性位置的校标。”
李欲晓还表示,大数据时代来势迅猛,关涉企业社会责任、个人社会规范等方面的法律法规正在完善。未来,在数据来源、数据分析、结论校准等方面,应陆续出台相关的法律法规和学术规范,以保障大数据在国家治理中发挥更大作用。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在互联网运营、产品优化、用户增长等领域,次日留存率是衡量产品价值、用户粘性与运营效果的核心指标,更是判断新用户是否认可产 ...
2026-05-09相关性分析是数据分析领域中用于探究两个或多个变量之间关联强度与方向的核心方法,广泛应用于科研探索、商业决策、医疗研究、社 ...
2026-05-09 数据分析师八成以上的时间在和数据表格打交道,但许多人拿到Excel后习惯性地先算、先分析,结果回头发现漏了一列关键数据, ...
2026-05-09在数据驱动运营的时代,指标是连接业务目标与实际行动的核心桥梁,是企业解读业务现状、发现问题、预判趋势的“量化标尺”。一套 ...
2026-05-08在存量竞争日趋激烈的商业时代,“以客户为中心”早已从口号落地为企业运营的核心逻辑。而客户画像作为打通“了解客户”与“服务 ...
2026-05-08 很多数据分析师每天与Excel打交道,但当被问到“什么是表格结构数据”“它和表结构数据有什么区别”“表格结构数据有哪些核 ...
2026-05-08在数据分析、计量研究等场景中,回归分析是探究变量间量化关系的核心方法,无论是简单的一元线性回归,还是复杂的多元线性回归、 ...
2026-05-07在数据分析、计量研究等场景中,回归分析是探究变量间量化关系的核心方法,无论是简单的一元线性回归,还是复杂的多元线性回归、 ...
2026-05-07 很多数据分析师画过趋势图、做过业绩预测,但当被问到“这个月销售额增长20%,到底是长期趋势自然增长,还是促销活动的短期 ...
2026-05-07在数字化时代,商业竞争的核心已从“经验驱动”转向“数据驱动”,越来越多的企业意识到,商业分析不是简单的数据统计与报表呈现 ...
2026-05-06在Excel数据透视表的实操中,“引用”是连接透视表与公式、辅助数据的核心操作,而相对引用作为最基础、最常用的引用方式,其设 ...
2026-05-06 很多数据分析师做过按月份的销售额趋势图,画过按天的流量折线图,但当被问到“时间序列和普通数据有什么本质区别”“季节性 ...
2026-05-06在Excel数据分析中,数据透视表是汇总、整理海量数据的高效工具,而公式则是实现数据二次计算、逻辑判断的核心功能。实际操作中 ...
2026-04-30Excel透视图是数据分析中不可或缺的工具,它能将透视表中的数据快速可视化,帮助我们直观捕捉数据规律、呈现分析结果。但在实际 ...
2026-04-30 很多数据分析师能熟练地计算指标、搭建标签体系,但当被问到“画像到底在解决什么问题”“画像和标签是什么关系”“画像如何 ...
2026-04-30在中介效应分析中,人口统计学变量(如年龄、性别、学历、收入、职业等)是常见的控制变量或调节变量,其处理方式直接影响分析结 ...
2026-04-29在SQL数据库实操中,日期数据的存储与显示是高频需求,而“数字日期”(如20240520、20241231、45321)是很多开发者、数据分析师 ...
2026-04-29 很多分析师在设计标签时思路清晰,但真到落地环节却面临“数据在手,不知如何转化为可用标签”的困境:或因加工方式选择不当 ...
2026-04-29在手游行业竞争日趋白热化的当下,“流量为王”早已升级为“留存为王”,而付费用户留存率更是衡量一款手游盈利能力、运营质量的 ...
2026-04-28在日常MySQL数据库运维与开发中,经常会遇到“同一台服务器上,两个不同数据库(以下简称“源库”“目标库”)的表数据需要保持 ...
2026-04-28