
对大数据的八大观点分析
越来越多程序员也涌入大数据行业,但是仔细问一些从业人员什么是大数据?鲜有人知道?就算知道的,最常引用Victor的4V理论,大量(Volume),快速(Velocity),种类多(Variety),价值(Value),但究竟多大是大?多快是快?几种算种类多?每个人都有自己的观点。最核心的问题还不在数量和种类,而是价值(Value)。什么是大数据的价值?如何体现它的价值?如何衡量它的价格 ?它能够变现么?如何来变现却是大数据的核心问题。
做大数据的同学,外面看起来像是红楼梦的大观园一样,外表光鲜亮丽,身在其中的人,才知道各有各的无奈。大数据的处理通常分为,数据收集,数据清洗,数据加工。数据应用,数据可视化。数据收集同学总是抱怨数据源Garbage in, Garbage out的感觉,数据清洗的同学总有沙里淘金的感觉,数据加工的同学也经常受两头气,相比来说,做数据可视化的同学比较幸运,可以找到很多炫酷的感觉,但有不是大数据的主流技术。最难受的是做大数据应用/变现的同学,不得不靠着忽悠行走江湖。
观点如下:
大数据的信息熵值低
大数据不是银弹是蚂蚁效应
大数据不解释因果,更关心相关性
数据资源公司最佳是被收购,最好应用是广告和泛征信
大数据是对用户隐私的汲取
用户数据无法用过定价来进行数据交易
搞清楚业务,再谈大数据也不晚
大数据的价值是真水无香
观点一 :大数据的信息熵值低
1948年,香农提出信息熵的概念,可以用于表述信息的价值,信息熵高的言简意赅,信息熵低的冗余拖沓。目前,很多大数据的来源都是一些系统的Log,图片,视频等。特别是日志系统数据,数据越来越多,越来越大,其中大部分是固定模板的数据,区分度差,信息量并没有随着数据的增加而线性增加。另外举个例子,之前我们使用胶卷照片的,我们会选择重要的场景,珍惜每一个照片,设计好角度和光圈,现在有数据相机了,内存近乎无限大了,大家肆无忌惮的自拍,哪怕都是同一个角度,大家照的废片也是一把一把的。同一类型的数据多了,信息熵也就降低了。
观点二:大数据不是银弹,而是蚂蚁效应
大数据应用常见,多见于推荐系统,业务流程优化,医疗,性能优化,预测,金融交易等,这些业务在传统的做法上,已经十分依赖于数据了,虽然以前不叫大数据,但是也都是数据驱动的业务。数据的规模和种类增多,处理方法的增多,会渐渐提高这些应用的精准性,这种提高一定是渐渐的,一点一滴的。也许一天两天感觉不错来的,但是经过多年的持续改进,这种效果是显而易见的。
举个例来说,语音识别起始于60年代,基于小型词汇库,在90年代,IBM推出的ViaVoice是语音识别的一个里程碑,基于复杂隐式马尔科夫模型(HMM)或者神经网络算法更加成熟,数据也是基于大量的词汇库,语料库。新闻联播曾经就是ViaVoice中文版本的重要训练语库。虽然用了更大的语料库,效果有改进,但是还无法达到实用的程度。2009年以后,借助于互联网语料库的进一步丰富,数据料的增长,远远超过算法的改进程度。语音识别在准确性和实用性得到很大的提升,用户也不断使用语音识别反馈更多的数据。以至于,谷歌公司人工智能方面的专家彼得·诺维格(Peter Norvig) ,和他的同事在一篇题为《数据的非理性效果》(The Unreasonable Effectiveness of Data)的文章中写道,“大数据基础上的简单算法比小数据基础上的复杂算法更加有效。”。大数据正在一步一步的解决一些科技应用难题,例如自动驾驶,人工智能等。
观点三:大数据不解释因果关系,只关心相关性
《大数据时代》中定义了大数据的第三个特征,“不是因果关系,而是相关关系”。沃尔玛通过数据挖掘,发现蛋挞和飓风产品有很多关联性,并且放在一起销售提高销售量。没有人清楚其中的因果关系,当然,也可能有人牵强的解释,美国人喜欢飓风时期躲在家里吃蛋挞,通过数据我们获得了相关性,但是却不理解其中因果关系。我突然想起来自于《三体》的降维攻击:很多时候我们在二维世界的相关性,是无法在二维世界进行解释因果的,也许只有在三维或者多维世界才能够解释因果关系,而这种因果关系无法直接理解,只能进行归纳成相关关系。
观点四: 大数据资源公司最佳变现是被收购,最直接变现渠道是广告和泛征信
很多专业大数据服务公司的发展都不走上市之路(注意不包括大数据技术公司),因为他们对于变现的能力和可持续性都有很多顾虑,他们也面临高风险的用户隐私挑战,因此很多大数据资源公司的PR工作,远远多于具体落地的数据服务工作。因此,各个专业大数据公司都忙于各种行业洞察报告和排行榜,数据可视化的工作一个比一个炫丽,一个比一个追热点。谈到大数据公司的变现,很多公司会提到“数据服务”,实际上数据服务的市场相对稳定,并没有因为大数据公司的发展而市场膨胀,因此“数据服务”实际上是一个明显的“僧多粥少”的状态,另外老牌的数据公司,例如Nielson等在客户方便还是有一定的优势。
收购成为大数据公司变现最佳方式,2014年Oracle收购BlueKai获得很多众互联网用户数据,BlueKai的数据来源于和很多小网站进行数据交换和购买,尼尔森公司收购了DMP公司eXelate,eXelate的数据来源各个合作伙伴的数据,它提供了数据共享和交换的平台,创建DMP支持广告优化投放。
既然数据服务不容易攒钱,那么有没有靠谱的变现途径呢?从目前来说,广告和泛征信是两个最有效的变现渠道,效果广告的精确投放,品牌广告主需要强烈的数据背书,这些都需要数据服务,因此在广告行业专业的DMP公司,对于程序化交易是必不可少的。另外,就是征信系统,金融的本质是一个套信用系统,这就是为什么各大互联网公司都早早进入金融业务。目前很多P2P公司是否能够生存,主要依据就是风险控制,大数据是重要技术支持,因此很多P2P会采购大量数据资源,加强自己的征信系统。
观点五:大数据是对用户隐私的汲取
大数据正在结合智能设备的普及而大力推进,例如摄像头,手机,智能穿戴设别等。 其中,大量用户隐私数据被收集,例如用户地址,交易数据,搜索数据,用户的地理位置信息,用户的脉搏,联系人列表等等。这些都是用户的个人数据,各大数据公司都通过改善服务为借口,获得用户的授权,而进行隐私的汲取和偷窥。
也有一种声音,这些数据是为了让你享受更好的服务。这里面也是很多逻辑问题。首先,服务商提供更好的服务,并不代表可以收集用户的隐私数据;其次,很多公司不提供不收集用户隐私数据的服务的选项,这让很多用户无法选择禁止用户隐私数据收集,这是一种利用市场地位的垄断和霸王条款;而后,所有数据公司没有提供数据清理功能,删除用户所有的历史数据。这意味着,你的隐私数据一旦被收集,可以被无限次的无范围的滥用。
观点六: 用户数据是无法通过定价而进行交换的
大数据采集公司,都有数据变现需求。对于数据采集公司来说,虽然能做一些数据分析和预测,但这些分析服务的费用较少(在成为顶级咨询公司之前),很难持续公司的正常运作,只能继续烧钱或者被收购。对于数据采集公司来说,很多人认为数据可以在公开公正公平的数据市场中变现,不少市面上的DMP都提供了一些数据交易平台,希望数据项商品一些安全,公平的交易.
原因有以下几个:
1. 大数据的价值无法用价格来衡量:
a)同一份数据对于不同客户价值不同,不同拷贝后价值也不同。
b)数据定价太低,卖方有注水动机;如果定价太高,买家也难以接受,而且数据报价都是暗拍的。
用户数据交易是玩火自焚
在各种大数据的应用中,用户的个人数据在很多场景中是最有价值的,这些数据一旦流入到市场或者黑市,社会后果将不堪设想,而且数据泄露者还面临法律风险,因此数据交易无法在公开的数据交易市场进行。一些脱敏技术可以让数据难以反追查,但是脱敏技术的尺度把握却是在人的手上,它很容易引入各种法律风险。
观点七:大数据的价值是真水无香
满大街唾沫横飞的大数据,让人觉得不懂大数据是一种羞耻。最近面试过好些候选人,做没做过数据都说想做大数据,而且是非大数据/机器学习不做,问他为什么要做大数据,所有回答都是这是趋势,不转型,宁等死,大数据可以挖掘出很多价值,帮助业务增长,这种感觉很好。
反过头来,看看工作中搞大数据技术的同学,每天通过脚本处理成千上万的数据,每天苦逼的处理各个数据格式,数据清洗,数据加工,数据分类/聚类,好不容易生成一些数据洞察结果,也需要用一大堆脚本和数据进行二次验证,包括精准率/召回率。这是一种苦逼,而且需要自己挖掘乐趣的工作。
确实,在一种新的数据洞察或大数据应用出来的时候,确实对于产品的提升很有帮助,为了保持保护这种提升,需要不断的对于数据进行清理,提高及时性,这种数据的维护工作慢慢会变成大数据工作者的很大一部分工作。这个过程有点像,一个系统的完善性维护工作,占了软件开发的很大一部分工作。 这部分数据价值对于产品竞争力的提升也会渐渐平淡,投入产出比越来越低。但是这些完善性维护工作,却不能停。一旦停止,对于业务会带来负增长,因此这种维护性的工作会变的越来辛苦。这个时候业务对于数据的以来就像人们对白开水的需求一样,平时觉得没有味道,但是缺少的马上就感到口渴,甚至渴死。
观点八:搞清楚业务之后,再谈大数据也不晚
目前很多行业峰会都沾上“大数据”的光环了,以前的站长大会也变成”自媒体大数据峰会”了,以前的互联网运营大会也变成”大数据运营峰会”了,以前的软件研发大会也加入了一个“大数据”分会场了。这是一个大数据唾沫横飞的世界,一不小心你就参与其中了。
我参加过几个大数据会议,有很多人是慕名而来(我自己也是其中之一),努力将自己的工作和大数据挂上钩,搞数据分析的说自己分析的是大数据,搞技术的说自己运用了大数据技术,搞应用的说自己的大数据驱动的业务。最后,谁也不知道大数据是什么,好像和数据之间没有太多本质的区别,只是多了一个“大”字而已。
我认为,这不是什么坏事,无论是使用“信息化”,“大数据”,“数据时代”,“数据挖掘”,“认知计算”,“深度学习”等词语,只要能够解决业务的问题,推进社会更加美好,就是一份有意义的工作。无论大数据还是小数据,解决业务问题就是好数据。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
R 语言:数据科学与科研领域的核心工具及优势解析 一、引言 在数据驱动决策的时代,无论是科研人员验证实验假设(如前文中的 T ...
2025-09-08T 检验在假设检验中的应用与实践 一、引言 在科研数据分析、医学实验验证、经济指标对比等领域,常常需要判断 “样本间的差异是 ...
2025-09-08在商业竞争日益激烈的当下,“用数据说话” 已从企业的 “加分项” 变为 “生存必需”。然而,零散的数据分析无法持续为业务赋能 ...
2025-09-08随机森林算法的核心特点:原理、优势与应用解析 在机器学习领域,随机森林(Random Forest)作为集成学习(Ensemble Learning) ...
2025-09-05Excel 区域名定义:从基础到进阶的高效应用指南 在 Excel 数据处理中,频繁引用单元格区域(如A2:A100、B3:D20)不仅容易出错, ...
2025-09-05CDA 数据分析师:以六大分析方法构建数据驱动业务的核心能力 在数据驱动决策成为企业共识的当下,CDA(Certified Data Analyst) ...
2025-09-05SQL 日期截取:从基础方法到业务实战的全维度解析 在数据处理与业务分析中,日期数据是连接 “业务行为” 与 “时间维度” 的核 ...
2025-09-04在卷积神经网络(CNN)的发展历程中,解决 “梯度消失”“特征复用不足”“模型参数冗余” 一直是核心命题。2017 年提出的密集连 ...
2025-09-04CDA 数据分析师:驾驭数据范式,释放数据价值 在数字化转型浪潮席卷全球的当下,数据已成为企业核心生产要素。而 CDA(Certified ...
2025-09-04K-Means 聚类:无监督学习中数据分群的核心算法 在数据分析领域,当我们面对海量无标签数据(如用户行为记录、商品属性数据、图 ...
2025-09-03特征值、特征向量与主成分:数据降维背后的线性代数逻辑 在机器学习、数据分析与信号处理领域,“降维” 是破解高维数据复杂性的 ...
2025-09-03CDA 数据分析师与数据分析:解锁数据价值的关键 在数字经济高速发展的今天,数据已成为企业核心资产与社会发展的重要驱动力。无 ...
2025-09-03解析 loss.backward ():深度学习中梯度汇总与同步的自动触发核心 在深度学习模型训练流程中,loss.backward()是连接 “前向计算 ...
2025-09-02要解答 “画 K-S 图时横轴是等距还是等频” 的问题,需先明确 K-S 图的核心用途(检验样本分布与理论分布的一致性),再结合横轴 ...
2025-09-02CDA 数据分析师:助力企业破解数据需求与数据分析需求难题 在数字化浪潮席卷全球的当下,数据已成为企业核心战略资产。无论是市 ...
2025-09-02Power BI 度量值实战:基于每月收入与税金占比计算累计税金分摊金额 在企业财务分析中,税金分摊是成本核算与利润统计的核心环节 ...
2025-09-01巧用 ALTER TABLE rent ADD INDEX:租房系统数据库性能优化实践 在租房管理系统中,rent表是核心业务表之一,通常存储租赁订单信 ...
2025-09-01CDA 数据分析师:企业数字化转型的核心引擎 —— 从能力落地到价值跃迁 当数字化转型从 “选择题” 变为企业生存的 “必答题”, ...
2025-09-01数据清洗工具全景指南:从入门到进阶的实操路径 在数据驱动决策的链条中,“数据清洗” 是决定后续分析与建模有效性的 “第一道 ...
2025-08-29机器学习中的参数优化:以预测结果为核心的闭环调优路径 在机器学习模型落地中,“参数” 是连接 “数据” 与 “预测结果” 的关 ...
2025-08-29