京公网安备 11010802034615号
经营许可证编号:京B2-20210330
大数据需要进化,细数BIG DATA 三宗“罪”
前几期的全局数据解读围绕机器、未来、宇宙碰撞出许多很多遐想,但全局数据并不是离我们很远的概念,它与我们客观世界的生活生产,息息相关。不仅仅因为数据是客观世界的映射,更因为它已经成为一种重要的生产力推动社会变革。然而在这个以数据为核心破局点的当下,仅仅讨论BIG DATA,是远远不够的。
有时候我们常常感叹是否真的存在平行时空,是否有另一个自己真实的发生某些行为。事实上因为移动互联、云存储、大数据等新兴技术的出现,的确映射出一个现实世界的缩影,它就是数据世界。
如果把我们真实可感知的世界称为客观世界,那么理论上来说,大量数据的集成可以映射出客观世界的部分,形成数据映像。映像是不同体系根据不同需求对客观世界的数据化抽取和沉积,这种抽取和沉积中本身已包含了一种逻辑(映射本身即算法),而映像这个集合,其实是由多个带有某个相同要素的场景所组成。
例如,当你开车使用高德地图时,构成了导航的场景;吃个饭搜个大众点评,构成了美食的场景;玩累了查查附近的酒店,构成了住宿的场景;躺在床上晒晒照片聊聊天,构成了社交的场景……这些场景的共同点是“你”是所有事件的施动者,成为串起所有场景的关键要素。而这些场景组合在一起,经过数据化的抽取和沉积,成为“你”某个时段休闲行为轨迹的数据映像。
不同的映像组合构成体系,而不同体系组合交叠成为客观世界在数据世界的缩影。(毕竟不是所有客观世界的生活痕迹,都可以被记录以便基于某种逻辑的抽取和沉积,所以数据映像只能是客观世界的部分投影,而非全部。)
数据世界与客观世界的逻辑关系
数据世界的关键在于“数据”。伴随着互联网、移动互联、云存储、虚拟现实等新技术的出现,导致人类可被记录和收集的数据体量爆炸性增长,我们也迎来“大数据时代”,大数据的出现开启了用数据探索世界规律的新纪元,然而大数据本身也存在诸多问题。
问题一:分散的数据孤岛,无法建立连接,导致数据无法流动印证
大数据最核心的问题之一,在于数据成分散式的孤岛状,只是在体系内开放,却不能在体系外流通印证。最典型的的商业场景是,在BAT自有体系内,他们的数据量都是非常巨大的。但是,他们只能沉积和应用自己产品体系内的各种数据,不能相互关联与开放。
分散的数据孤岛,体系与体系间、映像与映像间、场景与场景间都没有连接
造成数据孤岛的原因来自于方方面面,法律的约束,商业的壁垒,竞争的策略……而最基础的还是技术的不完善。
在过去,企业建立一个新项目,从硬件到软件再搭建网络,有一套自用的资源系统;等到企业发展了一个阶段,又需要新建一个项目,必须从头到尾再走一遍。因为技术有限,企业项目与项目之间的资源系统是烟囱式的系统,自顾自的竖着“冒烟”。企业内部况且如此,想让一个集团,甚至不同企业/集团之间的数据开放,从而更好地为产品服务,真正做到以人为本的用户体验,无异于空中楼阁,天方夜谭。
然而技术在发展,从最底部的硬件设施,到最上层的云端存储,企业已经有了让自己脱胎换骨的数据挖掘、收集、记录、开放形式,打破体系间的数据开放并非不可能。
问题二,体系与体系间存在连接,但连接过于粗放或过于细微
上文我们说到场景组成映像,映像是体系的子集,体系又构成数据世界,故而可以把“场景”当成数据世界所记录的客观世界最常用的单位(不是最小,但却最常使用)。 那么我们该如何定义场景? 一般来说,场景包括四部分:时间、空间、语义、语境(情绪、社群……),四要素随机组合构成不同的场景,因而不同场景之间,可能涵盖部分相同的要素,也可能每个要素都不相同。
于此,我们可以直接指出大数据的第二个问题——即便体系间存在连接,这种连接将会是过于粗放或细微的连接,具有模糊性和不确定性。不够精准,成为大数据难以得到应用的第二个问题。
过于粗放:体系与体系之间的连接更多存在于体系间和映像间。但体系由多个映像构成,映像又由不同的场景组成,不同场景又由四要素随机组合,仅仅连接体系或映像仅会导致模糊结果,无法得出精准结论。
过于细微:另外一种可能的倾向是,体系和体系之间的连接仅是最基础的、分散的数据连接,这种连接只能导致管中窥豹的片面结论。
问题三:数据的质量不高,导致错误的场景重现、错误的映像,出现错误的连接和错误决策
除了连接方式存在问题,数据本身的庞杂和质量不高,成为阻碍数据发挥最大效应的根本因素,甚至产生错误的决策。
既然问题已经来了,那我们如何避免大数据已知的三个问题?对策就是一个——全局数据。怎么理解全局数据的“全局观”?全局数据有什么特点?有什么能力,甚至有什么界限?
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在实验检测、质量控制、科研验证等场景中,“方法验证”是确保检测/分析结果可靠、可复用的核心环节——无论是新开发的检测方法 ...
2026-03-04在数据分析、科研实验、办公统计等场景中,我们常常需要对比两组数据的整体差异——比如两种营销策略的销售额差异、两种实验方案 ...
2026-03-04在数字化转型进入深水区的今天,企业对数据的依赖程度日益加深,而数据治理体系则是企业实现数据规范化、高质量化、价值化的核心 ...
2026-03-04在深度学习,尤其是卷积神经网络(CNN)的实操中,转置卷积(Transposed Convolution)是一个高频应用的操作——它核心用于实现 ...
2026-03-03在日常办公、数据分析、金融理财、科研统计等场景中,我们经常需要计算“平均值”来概括一组数据的整体水平——比如计算月度平均 ...
2026-03-03在数字化转型的浪潮中,数据已成为企业最核心的战略资产,而数据治理则是激活这份资产价值的前提——没有规范、高质量的数据治理 ...
2026-03-03在Excel办公中,数据透视表是汇总、分析繁杂数据的核心工具,我们常常通过它快速得到销售额汇总、人员统计、业绩分析等关键结果 ...
2026-03-02在日常办公和数据分析中,我们常常需要探究两个或多个数据之间的关联关系——比如销售额与广告投入是否正相关、员工出勤率与绩效 ...
2026-03-02在数字化运营中,时间序列数据是CDA(Certified Data Analyst)数据分析师最常接触的数据类型之一——每日的营收、每小时的用户 ...
2026-03-02在日常办公中,数据透视表是Excel、WPS等表格工具中最常用的数据分析利器——它能快速汇总繁杂数据、挖掘数据关联、生成直观报表 ...
2026-02-28有限元法(Finite Element Method, FEM)作为工程数值模拟的核心工具,已广泛应用于机械制造、航空航天、土木工程、生物医学等多 ...
2026-02-28在数字化时代,“以用户为中心”已成为企业运营的核心逻辑,而用户画像则是企业读懂用户、精准服务用户的关键载体。CDA(Certifi ...
2026-02-28在Python面向对象编程(OOP)中,类方法是构建模块化、可复用代码的核心载体,也是实现封装、继承、多态特性的关键工具。无论是 ...
2026-02-27在MySQL数据库优化中,索引是提升查询效率的核心手段—— 面对千万级、亿级数据量,合理创建索引能将查询时间从秒级压缩到毫秒级 ...
2026-02-27在数字化时代,企业积累的海量数据如同散落的珍珠,若缺乏有效的梳理与分类,终将难以发挥实际价值。CDA(Certified Data Analys ...
2026-02-27在问卷调研中,我们常遇到这样的场景:针对同一批调查对象,在不同时间点(如干预前、干预后、随访期)发放相同或相似的问卷,收 ...
2026-02-26在销售管理的实操场景中,“销售机会”是核心抓手—— 从潜在客户接触到最终成交,每一个环节都藏着业绩增长的关键,也暗藏着客 ...
2026-02-26在CDA数据分析师的日常工作中,数据提取、整理、加工是所有分析工作的起点,而“创建表”与“创建视图”,则是数据库操作中最基 ...
2026-02-26在机器学习分析、数据决策的全流程中,“数据质量决定分析价值”早已成为行业共识—— 正如我们此前在运用机器学习进行分析时强 ...
2026-02-25在数字化时代,数据已成为企业决策、行业升级的核心资产,但海量杂乱的原始数据本身不具备价值—— 只有通过科学的分析方法,挖 ...
2026-02-25