京公网安备 11010802034615号
经营许可证编号:京B2-20210330
解读《大数据时代》:复杂世界的数据观_数据分析师
《大数据时代》给出的大数据时代的第二个特征,是“不是精准性,而是混杂性”。这是一个相当难以理解的分割方式。虽然看一个个的案例,读者似乎明白了,可是放下书,却又疑上心头:为什么大数据时代不要精准性?精准性与混杂性之间有必然的对立关系吗?
如果说第一个特征中的“随机样本”和“全体数据”(记得实际是数据库的概念)的概念我们还能够从迈尔大叔的叙述中得以澄清,这里的“精准性”和“混杂性”就要认真考证了。
何为精准性?
迈尔大叔有关精准性的论断,应该是对小数据时代数据匮乏的藐视:你们这帮屌丝,撅着屁股捡钢镚,俺们土豪100元从来都不要找零的!小数据时代数据少啊,每个数据都当个宝,斤斤计较数据的精度。
“执迷于精确性是信息缺乏时代和模拟时代的产物。在那个信息贫乏的时代,任意一个数据点的测量情况都对结果至关重要。所以,我们需要确保每个数据的精确性,才不会导致分析结果的偏差。”
我们来看看迈尔大叔提供的有关精准度的案列,后面讨论用得着。
1)量子力学的”测不准“原理;(测不准即不精准,可这和大数据时代哪是哪儿呀?)
2)桥梁压力检测数字增加1000倍,错误率也会增加;(怀疑“错误率”是“错误数”的表达错误。错误率是错误的比例吗?如果错误率随着数据数量的增加而增加,那大数据还会准确吗?或许我真的被大数据时代OUT了。)
3)语音识别呼叫中心投诉的错误;(终于能够理解一个案例了!)
4)葡萄园N个温度计测量温度;(这是通过统计增强精准度。)
5)Forrester认为“有时得到2加2约等于3.9的结果,也很不错了。”(没有背景资料,不敢妄加判断。不过总觉得心悬悬的,你是否担心生活在一个“2加2可以约等于3.9”的社会里呢?)
6)微软研究中心寻求改进Word程序中语法检查的方法;(这是利用大数据来改进分析的精准性!)
7)BP炼油厂无线感应器网络数据;(又是一个大数据降低统计误差的案例。)
8)Facebook上的“4000个赞”和Gmail“2小时”计时;(神一般的大数据及其不精准性说明。)
9)Hadoop与Visa的算法。(这是一个如何牺牲分析结果的精准性以缩短所需分析时间的案例。回到迈尔大叔有关大数据时代的第一个特征,即使有了全体数据,必要时也要牺牲部分数据而争取时间。)
到此,可能能够理解为什么读这一小节这么困难了:迈尔大叔想告诉我们精准性不重要,可是他举的例子,却实在是有点“暧昧”不清。他究竟是想说数据的精准性还是数据分析结果的精准性呢?
何为混杂性?
“不是精准性,而是混杂性”。与混杂性所对立的精准性,原来不是迈尔大叔在描述精准性时以“2+2可以约等于3.9”时告诉我们的那个数据分析结果的精准性,而是数据的精准性。
“执迷于精确性是信息缺乏时代和模拟时代的产物。只有5%的数据是结构化且能适用于传统数据库的。如果不接受混乱,剩下95%的非结构化数据都无法被利用,只有接受不精确性,我们才能打开一扇从未涉足的世界的窗户。”
我们看到,在谈到大数据时代的混杂性时,迈尔大叔基本上都在谈论数据的混杂性(而不是数据的不精准性)。我们来看看混杂性的案例:1)对IBM称呼的混杂;2)谷歌翻译语料库;3)MIT研究项目;4)Flicker图片标签;5)新的数据库设计;6)ZestFinance。
说实在话,有关大数据时代混杂性的问题,因为有了前面对精准性的描述,一下子还真是被迈尔大叔给蒙住了,反复读了数遍,才理解。原来迈尔大叔所说的混杂性,是指数据格式的不统一。上面6个案例中,除ZestFinance外,基本上是讲数据格式的不统一或者数据来源纷杂。这的确是我们这个时代数据的特征。恭喜迈尔大叔终于说对了!
而ZestFinance则是指在数据不完整或者数据有错误的情况下如何处理数据的问题,这和大数据似乎没有太大的关系,与数据的混杂性也没关系。不过我们在此回忆一下,似乎除了随机样本问题外,迈尔大叔几乎不谈数据统计的技术细节。比如说,ZestFinance是如何处理数据缺失以及数据错误的呢?我真的很好奇。
精准性与混杂性的辩证
一般来说,“不是....。.而是....。.”的语句,应该是指同一事物的不同状态。比如“不是晴天而是下雨”,或者“不是田埂而是小溪”。如果你来一句“不是晴天而是小溪”,就显得难以理解了。
就统计学角度来看,数据的精准性是一回事,数据的不同格式(混杂性)是另一回事。格式混杂的数据,通过处理或许是能够精准的。
格式混杂的对立面是数据格式的统一。格式统一的数据或许可能也是不精准的。比如说迈尔大叔所列举的葡萄园测量温度以及BP炼油厂的感应数据。
另一方面,就精准性而言,数据的精准与数据分析结果的精准也是两个不同的概念。比如说,“2+2约等于3.9”是数据分析结果的不精准,而葡萄园温度测量和BP炼油厂的无线感应器网络数据的例子,则是指数据不精准但是因为数据多而克服了少量数据不精准的缺陷而使数据分析结果比较精准。
数据格式的混杂与统一,数据的精准与数据分析结果的精准,迈尔大叔都胡子眉毛一把抓了。
怎么理解大数据时代是十分重要的。大数据时代的特征是“一切皆为数据”,那么数据来源的多样性以及数据格式的混杂性确实成为一个大数据时代显著的特征。但是,这个特征的对立面,可能更应该是数据来源以及数据格式的单一性。
数据的混杂性需要更成熟的分析手段来分析,分析的结果也可能不像我们传统的那样丁是丁卯是卯。但这些应该是数据分析师的工作,而不是我们这样的屌丝们所需掌握的本领。
或许,我们可能更应该从屌丝的角度来归纳大数据时代的特征。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数字化运营中,“凭感觉做决策” 早已成为过去式 —— 运营指标作为业务增长的 “晴雨表” 与 “导航仪”,直接决定了运营动作 ...
2025-10-24在卷积神经网络(CNN)的训练中,“卷积层(Conv)后是否添加归一化(如 BN、LN)和激活函数(如 ReLU、GELU)” 是每个开发者都 ...
2025-10-24在数据决策链条中,“统计分析” 是挖掘数据规律的核心,“可视化” 是呈现规律的桥梁 ——CDA(Certified Data Analyst)数据分 ...
2025-10-24在 “神经网络与卡尔曼滤波融合” 的理论基础上,Python 凭借其丰富的科学计算库(NumPy、FilterPy)、深度学习框架(PyTorch、T ...
2025-10-23在工业控制、自动驾驶、机器人导航、气象预测等领域,“状态估计” 是核心任务 —— 即从含噪声的观测数据中,精准推断系统的真 ...
2025-10-23在数据分析全流程中,“数据清洗” 恰似烹饪前的食材处理:若食材(数据)腐烂变质、混杂异物(脏数据),即便拥有精湛的烹饪技 ...
2025-10-23在人工智能领域,“大模型” 已成为近年来的热点标签:从参数超 1750 亿的 GPT-3,到万亿级参数的 PaLM,再到多模态大模型 GPT-4 ...
2025-10-22在 MySQL 数据库的日常运维与开发中,“更新数据是否会影响读数据” 是一个高频疑问。这个问题的答案并非简单的 “是” 或 “否 ...
2025-10-22在企业数据分析中,“数据孤岛” 是制约分析深度的核心瓶颈 —— 用户数据散落在注册系统、APP 日志、客服记录中,订单数据分散 ...
2025-10-22在神经网络设计中,“隐藏层个数” 是决定模型能力的关键参数 —— 太少会导致 “欠拟合”(模型无法捕捉复杂数据规律,如用单隐 ...
2025-10-21在特征工程流程中,“单变量筛选” 是承上启下的关键步骤 —— 它通过分析单个特征与目标变量的关联强度,剔除无意义、冗余的特 ...
2025-10-21在数据分析全流程中,“数据读取” 常被误解为 “简单的文件打开”—— 双击 Excel、执行基础 SQL 查询即可完成。但对 CDA(Cert ...
2025-10-21在实际业务数据分析中,我们遇到的大多数数据并非理想的正态分布 —— 电商平台的用户消费金额(少数用户单次消费上万元,多数集 ...
2025-10-20在数字化交互中,用户的每一次操作 —— 从电商平台的 “浏览商品→加入购物车→查看评价→放弃下单”,到内容 APP 的 “点击短 ...
2025-10-20在数据分析的全流程中,“数据采集” 是最基础也最关键的环节 —— 如同烹饪前需备好新鲜食材,若采集的数据不完整、不准确或不 ...
2025-10-20在数据成为新时代“石油”的今天,几乎每个职场人都在焦虑: “为什么别人能用数据驱动决策、升职加薪,而我面对Excel表格却无从 ...
2025-10-18数据清洗是 “数据价值挖掘的前置关卡”—— 其核心目标是 “去除噪声、修正错误、规范格式”,但前提是不破坏数据的真实业务含 ...
2025-10-17在数据汇总分析中,透视表凭借灵活的字段重组能力成为核心工具,但原始透视表仅能呈现数值结果,缺乏对数据背景、异常原因或业务 ...
2025-10-17在企业管理中,“凭经验定策略” 的传统模式正逐渐失效 —— 金融机构靠 “研究员主观判断” 选股可能错失收益,电商靠 “运营拍 ...
2025-10-17在数据库日常操作中,INSERT INTO SELECT是实现 “批量数据迁移” 的核心 SQL 语句 —— 它能直接将一个表(或查询结果集)的数 ...
2025-10-16