京公网安备 11010802034615号
经营许可证编号:京B2-20210330
真实和完备是大数据分析的基础
随着大数据时代的到来,网络数据的真实性问题日益受到关注。相较以抽样调查为主的小数据时代,在大数据时代,如何进行正确的数据清洗和数据分析,以便从海量信息源中获取真实而有价值的信息内容,并生成指向性清晰的决策指导,成为哲学社会科学界和自然科学界共同面临的课题。
数据来源:确保具备大数据品质
在中国人民大学新闻学院教授喻国明看来,高品质数据来源是确保大数据分析真实、可靠的首要条件。“根据国内外的相关技术发展情况分析,当前比较权威、可靠的大数据来源主要有两个,一是掌握多方面的社会运行数据的政府部门,二是在某一领域拥有数据采集能力的大型公司,如数字移动、网购、社交媒体、搜索引擎、输入法软件等公司。”
喻国明认为,大数据时代的一个重要特点,就是全方位、立体式的数据分析成为可能。“不过,单个部门或企业所掌握的大数据往往类别单一,对其的分析结论难免陷于零散、维度单一。”另外,从严格意义上讲,大数据不是政府、企业的“私有财产”,它与社会个体的权利和隐私密切相关,应当属于全社会。
那么,目前民间进行的大数据分析“靠谱”吗?上海交通大学舆情研究实验室主任谢耕耘介绍,如果对大数据来源进行分类,可以分为政府、大企业的定点监测,以及民间依靠软件等技术手段的数据挖掘。对此,喻国明这样评价:相对于政府部门与大型网络企业的大数据采集能力,仅仅从信息海洋中简单挖掘、捞取的部分所谓的“大数据”,远远不具备真正的大数据品质。
北京邮电大学互联网治理与法律研究中心主任李欲晓更愿意将大数据分析结果看作一种数据产品。“衡量其价值,关键在于它是否面向特定客户群提供了所需数据产品类型。”目前,社会各界已经意识到大数据时代的到来,许多机构和个人也在积极开发相关软件和产品,这个过程的最大价值,便是提升了全社会的大数据处理能力。
数据分类:建立更多有效标签
谢耕耘认为,通过搜索引擎的分析软件进行数据挖掘,是当前许多民间研究机构获取所谓“大数据”的主要途径。目前,付之应用的诸如“爬虫”等大数据挖掘软件,其作用是非常有限的——往往在只挖掘到几千条数据时,就被相关网络平台为防止机器人挖掘而设置的障碍所拦截,并被要求反复输入验证码。“因此,这种依靠软件来执行的数据挖掘方式,往往需要数十台、上百台服务器,以及高容量的带宽和大量的IP地址。”其挖掘所获得的大数据,通常是局部的、不完整的,难以推断整体状况。
从这个意义上看,尽管目前从事大数据分析的人力、机构很多,但真正做出可信服的研究成果的团队并不多。在李欲晓看来,当前的大数据分析尚未成熟,仍处于“成长期”。
喻国明认为,大数据由不同数据集构成,若想全面、立体式反映某一个体、事物、事件,其关键在于对不同数据集进行关联分析,而关联分析的前提是建立标签。“对每一个数据文本做标签,就像图书分类一样。几十万册的图书,有了分类,才能够有序管理。面对大数据的海量信息,有了标签,就可以轻松找出需要的信息。”尽管不可能存在一个100%包容性的大数据库,但对数据进行快速、有效的处理与整合,无疑能为未来深入、真实、可靠的分析夯实基础。
“有些标签是自然形成的。例如,通过社交媒体的个人资料,就可以轻松分出年龄、性别、职业等不同标签。还有一些标签,则要通过网络行为分析才能认定。例如,在分析个人言论的社会特征时,可根据网络发言使用的词频、语义进行计算,并依此为网民贴上早起群体、晚睡群体,时尚型消费者、保守型消费者,高收入者、低收入者等标签。”喻国明认为,在大数据时代,一个文本碎片被打上的有效标签越多,其可被利用的价值越大。
数据分析:以小数据为“校准”
中国社会科学院新闻与传播研究所研究员姜飞做了一个有趣的比喻,“在大数据时代,数据信息好比货币,要像研究货币一样研究信息数据。”在他看来,“信息货币”一旦不可信,也容易发生“金融危机”;要提高大数据分析的可信度,就要找到一个“校对的准绳”。
喻国明认为,传统的抽样调查在发布结论时,需同时公布调查是否遵守了“21条规则”(包括数据来源、调查方法、资助者等),以保证调查报告不会产生误导。未来,大数据分析也应该同步公布数据来源、数据量、数据截取的时间区间等有关数据品质的指标。“如果数据来源是通过‘爬取’软件获取,那么公布‘爬取’量有多大,可以在一定程度上帮助受众判断数据分析的真实度、可信度。”
另外,尽管小数据是小范围的、片段的,但它有一个核心价值,即能够提供准确的结构性分析,拥有可靠的统计学价值。喻国明表示,“大数据虽然信息丰满,但整体构造难以看清,因此,小数据能够成为大数据判断结构性位置的校标。”
李欲晓还表示,大数据时代来势迅猛,关涉企业社会责任、个人社会规范等方面的法律法规正在完善。未来,在数据来源、数据分析、结论校准等方面,应陆续出台相关的法律法规和学术规范,以保障大数据在国家治理中发挥更大作用。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数据分析、市场研究、用户画像构建、学术研究等场景中,我们常常会遇到多维度、多指标的数据难题:比如调研用户消费行为时,收 ...
2026-03-25在流量红利见顶、获客成本持续攀升的当下,营销正从“广撒网”的经验主义,转向“精耕细作”的数据驱动主义。数据不再是营销的辅 ...
2026-03-25在CDA(Certified Data Analyst)数据分析师的全流程工作中,无论是前期的数据探索、影响因素排查,还是中期的特征筛选、模型搭 ...
2026-03-25在当下数据驱动决策的职场环境中,A/B测试早已成为互联网产品、运营、营销乃至产品迭代优化的核心手段,小到一个按钮的颜色、文 ...
2026-03-24在统计学数据分析中,尤其是分类数据的分析场景里,卡方检验和显著性检验是两个高频出现的概念,很多初学者甚至有一定统计基础的 ...
2026-03-24在CDA(Certified Data Analyst)数据分析师的日常业务分析与统计建模工作中,多组数据差异对比是高频且核心的分析场景。比如验 ...
2026-03-24日常用Excel做数据管理、台账维护、报表整理时,添加备注列是高频操作——用来标注异常、说明业务背景、记录处理进度、补充关键 ...
2026-03-23作为业内主流的自助式数据可视化工具,Tableau凭借拖拽式操作、强大的数据联动能力、灵活的仪表板搭建,成为数据分析师、业务人 ...
2026-03-23在CDA(Certified Data Analyst)数据分析师的日常工作与认证考核中,分类变量的关联分析是高频核心场景。用户性别是否影响商品 ...
2026-03-23在数据工作的全流程中,数据清洗是最基础、最耗时,同时也是最关键的核心环节,无论后续是做常规数据分析、可视化报表,还是开展 ...
2026-03-20在大数据与数据驱动决策的当下,“数据分析”与“数据挖掘”是高频出现的两个核心概念,也是很多职场人、入门学习者容易混淆的术 ...
2026-03-20在CDA(Certified Data Analyst)数据分析师的全流程工作闭环中,统计制图是连接严谨统计分析与高效业务沟通的关键纽带,更是CDA ...
2026-03-20在MySQL数据库优化中,分区表是处理海量数据的核心手段——通过将大表按分区键(如时间、地域、ID范围)分割为多个独立的小分区 ...
2026-03-19在商业智能与数据可视化领域,同比、环比增长率是分析数据变化趋势的核心指标——同比(YoY)聚焦“长期趋势”,通过当前周期与 ...
2026-03-19在数据分析与建模领域,流传着一句行业共识:“数据决定上限,特征决定下限”。对CDA(Certified Data Analyst)数据分析师而言 ...
2026-03-19机器学习算法工程的核心价值,在于将理论算法转化为可落地、可复用、高可靠的工程化解决方案,解决实际业务中的痛点问题。不同于 ...
2026-03-18在动态系统状态估计与目标跟踪领域,高精度、高鲁棒性的状态感知是机器人导航、自动驾驶、工业控制、目标检测等场景的核心需求。 ...
2026-03-18“垃圾数据进,垃圾结果出”,这是数据分析领域的黄金法则,更是CDA(Certified Data Analyst)数据分析师日常工作中时刻恪守的 ...
2026-03-18在机器学习建模中,决策树模型因其结构直观、易于理解、无需复杂数据预处理等优势,成为分类与回归任务的首选工具之一。而变量重 ...
2026-03-17在数据分析中,卡方检验是一类基于卡方分布的假设检验方法,核心用于分析分类变量之间的关联关系或实际观测分布与理论期望分布的 ...
2026-03-17