京公网安备 11010802034615号
经营许可证编号:京B2-20210330
社交媒体的大数据并不可靠_数据分析师
如今,科学家们正越来越多的把目光转向社交媒体,以研究线上及线下的人类行为,例如预测夏季股票市场的大波动。一些数据处理专家指出,使用该种方法处理数据时,研究者们须警惕超大量社交媒体数据背后可能存在的严重缺陷。
错误的结果可能产生严重的影响:每年,都有上千的研究报告是基于社交媒体上收集而来的数据。麦吉尔大学计算科学学院助理教授Derek Ruths称“这些文章中有好些被用来通报和决断公众,行业及政府的投资决策”。
卡内基梅隆大学软件科学院的合作作者Jürgen Pfeffer则说,“并不是所有打上“大数据”标签的东西就都很好”,他指出许多研究者都有或是希望有如此的前提——即只要数据足够多,他们就能修正任何可能产生的偏差。“然而,行为学研究中的一句老话说的好:了解你的数据”。不过,社交媒体作为数据源之一吸引力实在惊人。“人们想要了解世界上正发生着什么,这无疑是快速的跟进办法。”以2013年的波士顿马拉松爆炸案为例,Pfeffer在两周内收集了两千五百万的相关tweets(推特)。“你能了解百万计人的行为——还都是免费的。”
数据过滤与SPAM
一篇发表在《科学》杂志上的评论中,Ruths和Pfeffer强调了可能导致社交媒体数据失真的若干因素,及它们的解决办法。
包括:
不同社交媒体平台吸引不同的受众——比如,Instagram对18~29岁间的成年人吸引力最大,包括非裔美国人,拉丁人,女性和城市居民,而在Pinterest上,占主导地位的则是那些家庭年收入超过0,000,25~34岁的女性用户。Ruths和Pfeffer指出,研究人员很少能够知晓,更谈不上正确对待这些内含的采样偏差。
社交媒体研究所使用的公开数据并不总能准确反映平台的总体状况——研究者们关于网站建立者如何过滤他们的数据源常常一头雾水。
社交媒体的设计通常会影响用户的行为,从而改变所测量的数据。比如,Facebook没有“不喜欢”的按钮,这就使得负面内容相比于正面的“喜欢”更难被侦查到。
大量SPAM(垃圾邮件发送者和机器人)通常在社交媒体上伪装成普通用户,也被错误地纳入了很多人类行为测算和预测。
研究者们还经常只报告来自于易于分类的用户,主题和事件所得出的结论,这就使得新的方法看起来更加准备。例如,在推知Twitter用户的政治取向时,只取得了65%的准确率——即使研究(侧重于政治活跃用户)声称有90%的准确度。
解决方法
Ruths和Pfeffer指出,以上很多问题都有显而易见的解决方法,这些方法被广泛地用在诸如流行病学,统计学和机械学等领域。
Ruths说,“这些问题的共同点就是,需要研究者们在分析社交媒体数据时,能更加敏锐地感知数据本身。”
社会学家应对此种挑战的技术和标准已经十分纯熟了。Ruths说,“1948年,臭名昭著的“杜威击败杜鲁门”报纸标题就来自于电话调查,它最终在采样上低估了杜鲁门的支持者。这并不是在抹黑民意调查,正是那次显而易见的错误导致了今天日益复杂的技术,更高的标准,以及更加准确的民调。如今,我们站在与当年类似的技术发展拐点上。通过解决面临的问题,我们才能实现基于社交媒体的研究所展现出的巨大潜力。”
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在实验检测、质量控制、科研验证等场景中,“方法验证”是确保检测/分析结果可靠、可复用的核心环节——无论是新开发的检测方法 ...
2026-03-04在数据分析、科研实验、办公统计等场景中,我们常常需要对比两组数据的整体差异——比如两种营销策略的销售额差异、两种实验方案 ...
2026-03-04在数字化转型进入深水区的今天,企业对数据的依赖程度日益加深,而数据治理体系则是企业实现数据规范化、高质量化、价值化的核心 ...
2026-03-04在深度学习,尤其是卷积神经网络(CNN)的实操中,转置卷积(Transposed Convolution)是一个高频应用的操作——它核心用于实现 ...
2026-03-03在日常办公、数据分析、金融理财、科研统计等场景中,我们经常需要计算“平均值”来概括一组数据的整体水平——比如计算月度平均 ...
2026-03-03在数字化转型的浪潮中,数据已成为企业最核心的战略资产,而数据治理则是激活这份资产价值的前提——没有规范、高质量的数据治理 ...
2026-03-03在Excel办公中,数据透视表是汇总、分析繁杂数据的核心工具,我们常常通过它快速得到销售额汇总、人员统计、业绩分析等关键结果 ...
2026-03-02在日常办公和数据分析中,我们常常需要探究两个或多个数据之间的关联关系——比如销售额与广告投入是否正相关、员工出勤率与绩效 ...
2026-03-02在数字化运营中,时间序列数据是CDA(Certified Data Analyst)数据分析师最常接触的数据类型之一——每日的营收、每小时的用户 ...
2026-03-02在日常办公中,数据透视表是Excel、WPS等表格工具中最常用的数据分析利器——它能快速汇总繁杂数据、挖掘数据关联、生成直观报表 ...
2026-02-28有限元法(Finite Element Method, FEM)作为工程数值模拟的核心工具,已广泛应用于机械制造、航空航天、土木工程、生物医学等多 ...
2026-02-28在数字化时代,“以用户为中心”已成为企业运营的核心逻辑,而用户画像则是企业读懂用户、精准服务用户的关键载体。CDA(Certifi ...
2026-02-28在Python面向对象编程(OOP)中,类方法是构建模块化、可复用代码的核心载体,也是实现封装、继承、多态特性的关键工具。无论是 ...
2026-02-27在MySQL数据库优化中,索引是提升查询效率的核心手段—— 面对千万级、亿级数据量,合理创建索引能将查询时间从秒级压缩到毫秒级 ...
2026-02-27在数字化时代,企业积累的海量数据如同散落的珍珠,若缺乏有效的梳理与分类,终将难以发挥实际价值。CDA(Certified Data Analys ...
2026-02-27在问卷调研中,我们常遇到这样的场景:针对同一批调查对象,在不同时间点(如干预前、干预后、随访期)发放相同或相似的问卷,收 ...
2026-02-26在销售管理的实操场景中,“销售机会”是核心抓手—— 从潜在客户接触到最终成交,每一个环节都藏着业绩增长的关键,也暗藏着客 ...
2026-02-26在CDA数据分析师的日常工作中,数据提取、整理、加工是所有分析工作的起点,而“创建表”与“创建视图”,则是数据库操作中最基 ...
2026-02-26在机器学习分析、数据决策的全流程中,“数据质量决定分析价值”早已成为行业共识—— 正如我们此前在运用机器学习进行分析时强 ...
2026-02-25在数字化时代,数据已成为企业决策、行业升级的核心资产,但海量杂乱的原始数据本身不具备价值—— 只有通过科学的分析方法,挖 ...
2026-02-25