京公网安备 11010802034615号
经营许可证编号:京B2-20210330
云计算与大数据环境下的数据集成能力建设的关键条件
随着企业业务的增长,伴随企业各类应用系统逐步启用,结果导致数据量几何级数的增长,传统的整合数据的方式正在受到挑战,于此同时,云计算及网上应用在企业内部产生各类结构化、非结构化数据,这些数据所蕴含的信息(尤其是非结构化数据)是传统分析工具无法捕捉的。本文主要阐述在企业信息化过程中,数据整合的能力建设所需要考虑的一些关键问题。
从根本来说,企业信息化的目的是为了降低沟通成本、提高工作效率、增强科学决策能力,从手段上是将分散、无序、无时效的数据变成有序、可分享、有时效、可追溯的数据,前者数据过渡到后者数据,就是无信息(或不可信信息)变成可信信息的过程。数据蕴含的信息有两类:1、交易信息,即某一条/或几条数据本身所包含的信息;2、统计信息,即数据集合所蕴含的规律性信息。下图表现了交易数据与统计数据的关系和传统架构方法,即ETL模型。
图1:典型传统数据仓库架构
传统整合基本上是基于ETL模式,即从企业内部的信息系统中抽取(Extract),然后根据预先定义的方式转换(Transform),最后载入到企业的数据仓库(Load),大部分企业的ETL程序定义在每天晚上运行,这类的方法有以下问题:
1、数据仓库的数据不是实时的信息
2、如果内部信息系统数据量很大,ETL处理时间不可能按时完成。
3、数据仓库的信息无法快速反馈数据到基层处理商务的人员,图示1中红色打叉的部分。
4、ERP本身在多年数据积累后,事务处理与订单查询都会变慢。
5、无法处理大数据,ETL的整个数据处理过程都是建立在已知/预定义的模型之上的,也就是ETL无法发掘到数据集蕴含的未知规律。
a)结构化大数据,除上述第2点外,针对大数据的深度挖据分析能力(非简单根据预先设计的模型做数据转换),传统的系统架构中是无法完成的。
b)非结构化、半结构化大数据。非架构化数据从本质上来讲,是企业无法预先定义规则的数据类型,据IDC的一项调查报告中指出:企业中80%的数据都是非结构化数据,这些数据每年都按指数增长60%。传统的方式是无法计算统计非结构化大数据包含的新类型统计信息。
根据上述问题,企业信息系统的数据整合的目标需要满足以下条件:
1、提高数据的质量
低质量的数据带来的问题:
1.1统计数据会有误导,误导的数据直接结果很可能是企业战略决策错误。
1.2基层人员工作效率低下。由于基层人员不信任数据,就会产生额外的工作去核对并验证。由于数据不准确也会产生更多的操作性错误,如:发货地址错误,货款核对产生歧义等。这些都会带来大量的额外工作,根据2/8原理,80%的额外工作都缘于20%的错误。
1.3无法根据信息系统记录做更多的分析统计,如6 Sigma类似的项目将无数据基础,项目无法推进。
2、数据安全:由于各类中间件的应用、云计算集成环境的广泛普及,数据源需要提供更广泛的数据输出的能力,与此同时,数据保护能力需要更加完善,传统在应用软件层面的保护方式是无法满足此类需求的。保护数据需要考虑:传输加密和身份认证。
3、与“云计算”的集成能力:在云计算环境里,无论是基础数据还是交易数据,将不仅限于某一种应用系统中使用,甚至数据很可能需要跨越公司的防火墙,与外部的云计算环境集成。
4、大数据能力:举个典型的例子,企业使用web日志、社交媒体(social media,如微博)数据分析大量客户的偏好,同时使用企业与客户已经成交的交易记录,建立更好的预测模型,更直接有效的市场推广或更好的客户体验。而上述的web日志和社交媒体的数据都是非结构化的大数据。
5、高性能/满足实时的要求:举个典型的贸易公司为例,该公司需要根据客户以往的信用记录决定是否订货或发货,如果没有实时统计能力,此类的商业模型在执行起来会困难重重。越来越多的企业希望将部分的决策过程下放到执行层面的基层,基层的决策需要实时的统计结果、可追溯的决策结果。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在实验检测、质量控制、科研验证等场景中,“方法验证”是确保检测/分析结果可靠、可复用的核心环节——无论是新开发的检测方法 ...
2026-03-04在数据分析、科研实验、办公统计等场景中,我们常常需要对比两组数据的整体差异——比如两种营销策略的销售额差异、两种实验方案 ...
2026-03-04在数字化转型进入深水区的今天,企业对数据的依赖程度日益加深,而数据治理体系则是企业实现数据规范化、高质量化、价值化的核心 ...
2026-03-04在深度学习,尤其是卷积神经网络(CNN)的实操中,转置卷积(Transposed Convolution)是一个高频应用的操作——它核心用于实现 ...
2026-03-03在日常办公、数据分析、金融理财、科研统计等场景中,我们经常需要计算“平均值”来概括一组数据的整体水平——比如计算月度平均 ...
2026-03-03在数字化转型的浪潮中,数据已成为企业最核心的战略资产,而数据治理则是激活这份资产价值的前提——没有规范、高质量的数据治理 ...
2026-03-03在Excel办公中,数据透视表是汇总、分析繁杂数据的核心工具,我们常常通过它快速得到销售额汇总、人员统计、业绩分析等关键结果 ...
2026-03-02在日常办公和数据分析中,我们常常需要探究两个或多个数据之间的关联关系——比如销售额与广告投入是否正相关、员工出勤率与绩效 ...
2026-03-02在数字化运营中,时间序列数据是CDA(Certified Data Analyst)数据分析师最常接触的数据类型之一——每日的营收、每小时的用户 ...
2026-03-02在日常办公中,数据透视表是Excel、WPS等表格工具中最常用的数据分析利器——它能快速汇总繁杂数据、挖掘数据关联、生成直观报表 ...
2026-02-28有限元法(Finite Element Method, FEM)作为工程数值模拟的核心工具,已广泛应用于机械制造、航空航天、土木工程、生物医学等多 ...
2026-02-28在数字化时代,“以用户为中心”已成为企业运营的核心逻辑,而用户画像则是企业读懂用户、精准服务用户的关键载体。CDA(Certifi ...
2026-02-28在Python面向对象编程(OOP)中,类方法是构建模块化、可复用代码的核心载体,也是实现封装、继承、多态特性的关键工具。无论是 ...
2026-02-27在MySQL数据库优化中,索引是提升查询效率的核心手段—— 面对千万级、亿级数据量,合理创建索引能将查询时间从秒级压缩到毫秒级 ...
2026-02-27在数字化时代,企业积累的海量数据如同散落的珍珠,若缺乏有效的梳理与分类,终将难以发挥实际价值。CDA(Certified Data Analys ...
2026-02-27在问卷调研中,我们常遇到这样的场景:针对同一批调查对象,在不同时间点(如干预前、干预后、随访期)发放相同或相似的问卷,收 ...
2026-02-26在销售管理的实操场景中,“销售机会”是核心抓手—— 从潜在客户接触到最终成交,每一个环节都藏着业绩增长的关键,也暗藏着客 ...
2026-02-26在CDA数据分析师的日常工作中,数据提取、整理、加工是所有分析工作的起点,而“创建表”与“创建视图”,则是数据库操作中最基 ...
2026-02-26在机器学习分析、数据决策的全流程中,“数据质量决定分析价值”早已成为行业共识—— 正如我们此前在运用机器学习进行分析时强 ...
2026-02-25在数字化时代,数据已成为企业决策、行业升级的核心资产,但海量杂乱的原始数据本身不具备价值—— 只有通过科学的分析方法,挖 ...
2026-02-25