
如何驾驭大数据
到 2018年 全球大数据方面的开支将达 1140 亿美元,是 5年 前的 3 倍;到 2020年 全球大数据规模将达 44ZB(泽字节),是 2013年 的 10 倍。下一波大数据浪潮即将来袭,但是并没有多少组织为此做好准备。如果应对措施不当,你可能就不是弄潮的那个,而是被浪尖打翻的那个。如何为驾驭大数据做好准备呢?请看 Crewspark CEO Cameron Sim 的文章。
1140 亿美元。这是 2018年 全球组织在大数据方面的开销,仅仅 5年 的时间就增长了 300%以上。但是这些投入有多少是值得的呢?
过去 10年,我们目睹了大数据管理新方法的广泛应用,如 MapReduce、供大规模存储使用的非模式化数据库,以及用于存储和处理的 Hadoop、Storm 和 Spark 等。但是大数据的使用不仅仅是特定平台或范例的部署而已: 通常这意味着公司对数据的建构和组织进行彻底的重新设计。
但据调查发现,目前还没有多少组织为新的数据平台和能力做好基本准备。只有 35%的组织拥有了 “健壮的数据捕捉、管理、验证及保存流程”,更有 67%“缺乏衡量定义明确的大数据行动成功的标准。” 那些大数据解决方案基本都是被动集成进来的。
但时间可不等人,根据 2014年IDC 的报告,到 2020年,全球的数据总量将达 44ZB,整整是 2013年 的 10 倍。面对着下一波的数据大爆发,那些未做好准备的公司将可能就会有背负运营和技术双重债务的风险,并因数据落后而被淘汰出局。
具体而言,这些风险体现在以下几个方面:
企业丧失透明度
业界将面临大规模的技能短缺问题——很少有 IT 专业人士有经验管理大规模的大数据平台。根据麦肯锡的分析,到 2018年,美国将出现 150 万名有能力做出基于数据决策的经理。为了缩短这一鸿沟,麦肯锡估计企业将需要把数据和分析预算的 50%投入到一线经理的培训上面。但是还没有多少公司意识到这一点。
随着数据需求的扩大,如果对信息管理缺乏深刻理解,对数据扩展性缺乏最佳实践,那么在管理数据驱动的系统时就会遭遇到重大挑战。而糟糕的运营透明度会导致企业很难识别出数据何时不准确和无意义,甚至连关键报表和指标是否正确运行都不知道。理清这些错综复杂并对数据提出正确的问题将成为 IT 人员的必备技能。否则就会缺乏对企业运营的可视性,无法有效做出知情决策并削弱企业的竞争优势。
人工成本飙升
据估计 2014年 时数据科学家 50-80%的工作时间花在了数据集清理和处理上。近期公司往往倾向把数据准备工作的自动化外包给离岸或近岸的数据专家。对 CloudFactory、MobileWorks 及 Samasource 这类微工作平台的需求已经爆发,据估计,到 2018年 这类业务的规模将达到 50 亿美元。
但是外包无法规模满足需求。鉴于未来的数据量将达到 44ZB,数据的这种快速增长会需要成千上万具备长期可行的解决方案的离岸或近岸外包团队。而任何可持续的解决方案都离不开显著的自动化。
通信障碍
现在企业间的交互依靠的是经过组织的数据,但与未来 20年 发生的事情相比,这种组织数据的过程将会显得苍白无力。未来将会出现新的企业数据网络标准以及相应的算法和元数据。未能参与到这一全球数据市场的公司将无法利用市面上销售的这些数据产品。
全球各个领域都在发生这种朝着大规模商业数据共享的演变。比方说,在要求第三方验证其研究的压力之下,像葛兰素史克这样的药企最近都拟定了更广泛共享实验数据的计划。奥巴马总统已经要求技术公司共享潜在黑客威胁的数据。Forrester 最近的一项研究预测,数据服务将成为 2015年 的主流产品。按照这种节奏,10年 后大数据的有效使用不仅会成为市场致胜的关键,而且还是参与市场的先决条件。
这些风险就像一个个大数据的定时炸弹,对你构成严峻挑战。不过如果你采取下面的三个步骤,危险也许就可以解除。
1、不要走一步看一步
为了确保未来的分析能力,企业必须现在就开始投资一个能够快速有效管理新数据集的平台。应该考虑业务未来在数据摄入与联合方面如何运作,如何从传统的系统过渡到端到端的自动化的数据与分析。
其核心是这个平台要能够有目的地、小心地、透明地扩充,而不是光收集数据,但对这些数据使用却没有明确的目的,或者在数据的解析上不做投入。
2、再痛也要重建旧数据应用架构
许多公司过度依赖维护开销很高的旧系统,导致升级或作出战略变革的优先性被贬低。甚至一些大公司也是如此,比方说三星的 SmartHub TV 是跑在云上面的,但是因为顾忌迁移成本,其所有的金融交易仍在本地处理。
其结果就是在许多组织里面数据形成了一个个以部门为单位的烟囱。某些数据,比方说社交媒体方面的信息,甚至还保存在公司以外,这又增加了一层复杂性。要想大数据创新,企业必须以提高跨部门运营透明度为焦点对旧的数据应用进行翻新。
3、模块化、多颗粒度的数据管理
要把裸数据和洞察数据塑造成模块化、组织得当、具备各种颗粒度的实体,这一步做得越深入,越能够有效的利用商业洞察,同时还能在永远变化的大数据形势中保持敏捷的反应力。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在 “神经网络与卡尔曼滤波融合” 的理论基础上,Python 凭借其丰富的科学计算库(NumPy、FilterPy)、深度学习框架(PyTorch、T ...
2025-10-23在工业控制、自动驾驶、机器人导航、气象预测等领域,“状态估计” 是核心任务 —— 即从含噪声的观测数据中,精准推断系统的真 ...
2025-10-23在数据分析全流程中,“数据清洗” 恰似烹饪前的食材处理:若食材(数据)腐烂变质、混杂异物(脏数据),即便拥有精湛的烹饪技 ...
2025-10-23在人工智能领域,“大模型” 已成为近年来的热点标签:从参数超 1750 亿的 GPT-3,到万亿级参数的 PaLM,再到多模态大模型 GPT-4 ...
2025-10-22在 MySQL 数据库的日常运维与开发中,“更新数据是否会影响读数据” 是一个高频疑问。这个问题的答案并非简单的 “是” 或 “否 ...
2025-10-22在企业数据分析中,“数据孤岛” 是制约分析深度的核心瓶颈 —— 用户数据散落在注册系统、APP 日志、客服记录中,订单数据分散 ...
2025-10-22在神经网络设计中,“隐藏层个数” 是决定模型能力的关键参数 —— 太少会导致 “欠拟合”(模型无法捕捉复杂数据规律,如用单隐 ...
2025-10-21在特征工程流程中,“单变量筛选” 是承上启下的关键步骤 —— 它通过分析单个特征与目标变量的关联强度,剔除无意义、冗余的特 ...
2025-10-21在数据分析全流程中,“数据读取” 常被误解为 “简单的文件打开”—— 双击 Excel、执行基础 SQL 查询即可完成。但对 CDA(Cert ...
2025-10-21在实际业务数据分析中,我们遇到的大多数数据并非理想的正态分布 —— 电商平台的用户消费金额(少数用户单次消费上万元,多数集 ...
2025-10-20在数字化交互中,用户的每一次操作 —— 从电商平台的 “浏览商品→加入购物车→查看评价→放弃下单”,到内容 APP 的 “点击短 ...
2025-10-20在数据分析的全流程中,“数据采集” 是最基础也最关键的环节 —— 如同烹饪前需备好新鲜食材,若采集的数据不完整、不准确或不 ...
2025-10-20在数据成为新时代“石油”的今天,几乎每个职场人都在焦虑: “为什么别人能用数据驱动决策、升职加薪,而我面对Excel表格却无从 ...
2025-10-18数据清洗是 “数据价值挖掘的前置关卡”—— 其核心目标是 “去除噪声、修正错误、规范格式”,但前提是不破坏数据的真实业务含 ...
2025-10-17在数据汇总分析中,透视表凭借灵活的字段重组能力成为核心工具,但原始透视表仅能呈现数值结果,缺乏对数据背景、异常原因或业务 ...
2025-10-17在企业管理中,“凭经验定策略” 的传统模式正逐渐失效 —— 金融机构靠 “研究员主观判断” 选股可能错失收益,电商靠 “运营拍 ...
2025-10-17在数据库日常操作中,INSERT INTO SELECT是实现 “批量数据迁移” 的核心 SQL 语句 —— 它能直接将一个表(或查询结果集)的数 ...
2025-10-16在机器学习建模中,“参数” 是决定模型效果的关键变量 —— 无论是线性回归的系数、随机森林的树深度,还是神经网络的权重,这 ...
2025-10-16在数字化浪潮中,“数据” 已从 “辅助决策的工具” 升级为 “驱动业务的核心资产”—— 电商平台靠用户行为数据优化推荐算法, ...
2025-10-16在大模型从实验室走向生产环境的过程中,“稳定性” 是决定其能否实用的关键 —— 一个在单轮测试中表现优异的模型,若在高并发 ...
2025-10-15