京公网安备 11010802034615号
经营许可证编号:京B2-20210330
说说什么是数据分析方法论?
在数据集成类的项目中,最难的过程就是数据分析了,数据分析过程位于数据集成类项目整个过程(前期准备调研—–数据分析—–接口实现)的第二步,它为第三步接口实现提供了充分的准备,因此数据分析的正确与否很大程度上决定了数据集成能否成功的实现和完成。
怎么样有效的进行数据分析呢,怎么样提前在数据分析中尽量避免问题等到实现时才出现呢?这是一个行之有效的数据分析方法论的评判的关键。
经过几个项目的经历,反思了一下在做这些项目时比较有效的方法和失妥的方法,总结了一套目前个人觉得可行的数据分析方法,此套数据分析方法只适用于数据库—文件—数据库或数据库—数据库的分析,对于接口式的集成(例如调用对方的webservice、EJB接口等)并不适用,在这样的一套数据分析的方法中,为数据分析的步骤以及需要注意的问题事项提出了指导,编写此blog以希望有同行的同学们多多交流。
2、数据分析方法论
此方法论中涉及的名词的解释:
目标数据源
指在数据集成中需要导入数据的数据源,此数据源可能是数据库,也有可能是文件。
源数据源
指在数据集成中获取数据的数据源,此数据源可能是数据库,也有可能是文件。
字典代码
在数据库中以代码的方式(如数字、英文字母等)来代替中文意思进行存储,其中的这些代码就称为字典代码。
2.1.步骤
2.1.1.分析目标数据源的数据结构
目标数据源既有可能是数据库也有可能是文件,但无论是哪种,它都是有数据结构的,首先要做的就是分析目标数据源的数据结构,在分析目标数据源的数据结构时,要分析清楚的有:
表
目标数据源中需要交换的有哪些表,这些表的含义分别是什么。
字段
这些表中包含的字段、字段的类型以及长度。
字段含义
分析每个字段的含义,包括字段的中文含义、字段涉及到的字典代码以及字段的规则(如业务规则、生成规则)。
在分析了上面所提及的表、字段、字段含义后,形成如下结构的文档:
表名
字段 字段类型及长度 中文含义 涉及到的字典代码 字段规则
id number(10) 主键流水号 — 流水号,通过表名_SEQ的Sequence来获取
unitcode varchar2(19) 单位编码 单位编码字典 —
2.1.2. 分析目标数据源的表关系
在完成了第一步后,需要接着分析目标数据源的表关系,分析表关系最重要的在于分析各个表之间的关联关系(例如一对一、一对多,通过这里可以分析出的为主键、外键的关联关系),其次就是需要根据业务来分析其各个表之间的隐性关联,如只有当A表中的某个值为03时才关联到B表。
在分析完毕目标数据源的表关系后,形成如下Rose图:

2.1.3. 分析源数据源的数据结构
方法同2.1.1,分析的对象改变为源数据源,分析完毕后形成同2.1.1中的文档。
2.1.4.分析源数据源的表关系
方法同2.1.2,分析的对象改变为源数据源,分析完毕后形成同2.1.2中的Rose图。
2.1.5.根据目标数据源的表关系分析其和源数据源的表的对应关系
根据目标数据源的表关系,来分析其和源数据源表的对应关系,在这个步骤中需要分析清楚的是目标数据源的表的数据来源于源数据源的哪些表,怎么获取到这些数据,分析完毕后可形成校验数据集成是否正确的一个标准,那就是目标数据源的表的数据量和其来源的源数据源的那些表的数据量应该是一致的,分析时仍然是根据目标表的业务含义去源数据源中的表中寻找具备相同含义的表,在分析的过程中可能会碰到如下几种情况:
含义相同的表
这种情况通常是目标数据源和源数据源均为使用一张表存储,含义相同的表通常都是一对一的数据关系,例如目标数据源中有一张表为常住人口基本信息,源数据源中有张常住人员基本信息,两张表就可以对应上了,当然,有些时候并不一定是意义相同就一定相同,这需要从业务层面去判断。
具备包含意义的表
这种情况通常是目标数据源为一张表,源数据源为多张表,这个时候就形成多对一的关系,例如目标数据源中有张表为物品表,源数据源中为手机、证券等几张表,这个时候就需要将手机、证券这些表对应到物品表。
又或者可能会碰到这样的现象,目标数据源为一张表,源数据源也是一张表,但源数据源的这张表的每行记录包含了目标表的两种类型的记录,这种情况下就需要将源数据源的一行记录拆分为两条导入到目标表中,例如目标数据源有张表为迁入迁出表,其存储方式为迁入和迁出都为单独的记录来存储的,源数据源有张表也为迁入迁出表,但其存储方式为迁入和迁出在同一条记录,这个时候就要将源数据源的这张迁入迁出表的一行记录拆分为两条进行导入了。
被包含意义的表
和之上的具备包含意义的表相反。
根据业务的对应关系
这张是最为复杂的,例如可能会碰到这样的现象,当源数据源的某张表的某个字段的值为多个的时候,就需要拆分为两条记录导入到目标表中。
综合上面所述,目标数据源的表和源数据源的表可能会存在一对一、一对多、多对一、多对多、条件式的对应几种关系,在分析完毕后形成如下的文档:

2.1.6.根据表的对应关系分析字段的对应关系以及转化规则
在对应了表的对应关系后,根据表的单一对应关系(如目标数据源的B表对应到了源数据源的B、C表,则需要分为B对应B以及B对应C两个步骤来分析)来分析每个表中的字段的对应关系以及转化规则了,对应的方法为:
先在对应的表中寻找相应的字段
如寻找不到则到相关的表中寻找相应的字段
如还是寻找不到则需要从业务含义方面去推测
从业务含义角度分析此字段是否需要合并多个字段或拆分字段,又或根据某种业务规则来生成这个字段的值。
在寻找到了相应的字段后,首先根据类型、长度来分析是否需要进行类型和长度的处理,之后需要分析该字段是否为通过关联到其他表来获取的,接着再分析此字段是否涉及到字典代码,如涉及则需要对照两边的字典代码是否一致,如不一致则需要形成两边的字典代码的对应关系,最后分析该字段是否涉及业务含义,如涉及则需注明如何进行处理。
在分析完毕后,形成如下文档:

2.2.需注意的问题
由于数据集成涉及的为系统中最为重要的基础—数据,那么在做数据集成时就特别需要仔细考虑不要对数据产生了破坏性的影响,这也是数据分析过程中需要慎重考虑的问题。
2.2.1.数据覆盖/混乱的问题
在做数据分析时需要考虑,这样集成数据后是否会将已存在的数据非法的覆盖或造出混乱,出现这种问题通常都是由于主键的原因,这个在做数据分析时需要考虑。
2.2.2.制定错误出现时的弥补方案
在做数据分析时需要考虑在进行数据集成后可能会出现的错误,对于这些可能出现的错误需要制定相应的弥补方案,以避免数据的被破坏。
2.2.3.源数据源数据质量造成的问题的处理方案
需要考虑如源数据源本身的数据质量出现问题时,应如何处理或者如何避免。
2.2.4.业务专家的支持
在整个数据分析的过程中,可以看出业务专家起到了非常大的作用,可以说如果缺少业务专家的话,数据分析很可能会失败,或需要走很多的弯路才能最后摸索出来,有一点可以肯定,在缺少业务专家的支持下整个数据分析的过程将会大大的延长,从这点可以看出,在进行数据分析时要尽量获取到业务专家的支持。
3、总结
如上的方法论对数据分析的过程和避免问题的方法做出了一定的描述,在实际的进行数据分析时,最重要的还是负责数据分析的人对于系统的理解,有过系统设计经验的人来做数据分析成功的几率会高很多,有些非常专业的系统的话还得依赖有相应的设计经验的人才做才能做得了,类如流程系统的数据集成。
在一个数据分析过程中,已经可以制定出判断数据集成是否成功的标准了,这也可以列为TDD的入口条件,J。
方法论始终都还是理论,我本来就不是一个那么讲理论的人,但也不否认理论对于实际是有很好的指导作用的,避免在实践过程中走过多的弯路,能做到理论结合实践那是最好的,理论指导实践,实践改进理论。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
【专访摘要】本次CDA持证专访邀请到拥有丰富物流供应链数据分析经验的赖尧,他结合自身在京东、华莱士、兰格赛等企业的从业经历 ...
2026-05-15在数字化时代,企业的每一次业务优化、每一项技术迭代,都需要回答一个核心问题:这个动作到底能带来多少价值?是提升了用户转化 ...
2026-05-15在数据仓库建设中,事实表与维度表是两大核心组件,二者相互关联、缺一不可,共同构成数据仓库的基础架构。事实表聚焦“发生了什 ...
2026-05-15 很多数据分析师沉迷于复杂的机器学习算法,却忽略了数据分析最基础也最核心的能力——描述性统计。事实上,80%的商业分析问 ...
2026-05-15【核心关键词】互联网、机会、运营、关键词、账户、数字化、后台、客户、成本、网络、数据分析、底层逻辑、市场推广、数据反馈 ...
2026-05-14在Python数据分析中,Pandas作为核心工具库,凭借简洁高效的数据处理能力,成为数据分析从业者的必备技能。其中,基于两列(或多 ...
2026-05-14 很多人把统计学理解为“一堆公式和计算”,却忽略了它的本质——一门让数据“开口说话”的科学。真正的数据分析高手,不是会 ...
2026-05-14在零售行业存量竞争日趋激烈的当下,客户流失已成为侵蚀企业利润的“隐形杀手”——据行业数据显示,零售企业平均客户流失率高达 ...
2026-05-13当流量红利消退、用户需求日趋多元,“凭经验决策、广撒网投放”的传统营销模式早已难以为继。大数据的崛起,为企业营销提供了全 ...
2026-05-13 许多数据分析师精通Excel函数和SQL查询,但当面对一张上万行的销售明细表,要快速回答“哪个地区销量最高”“哪款产品增长最 ...
2026-05-13在手游行业存量竞争日趋激烈、流量成本持续高企的当下,“拉新”早已不是行业核心痛点,“留存”尤其是“付费留存”,成为决定手 ...
2026-05-12 很多数据分析师掌握了Excel函数、会写SQL查询,但当被问到“数据从哪里来”“数据加工有哪些步骤”“如何使用分析工具连接数 ...
2026-05-12用户调研是企业洞察客户需求、优化产品服务、制定运营策略的核心前提,而调研数据的可靠性,直接决定了决策的科学性与有效性。在 ...
2026-05-11在市场竞争日趋激烈、流量成本持续攀升的今天,企业的核心竞争力已从“获取流量”转向“挖掘客户价值”。客户作为企业最宝贵的资 ...
2026-05-11 很多数据分析师精通Excel单元格操作,熟练应用多种公式,但当被问到“表结构数据的基本处理单位是什么”“字段和记录的本质 ...
2026-05-11在互联网运营、产品优化、用户增长等领域,次日留存率是衡量产品价值、用户粘性与运营效果的核心指标,更是判断新用户是否认可产 ...
2026-05-09相关性分析是数据分析领域中用于探究两个或多个变量之间关联强度与方向的核心方法,广泛应用于科研探索、商业决策、医疗研究、社 ...
2026-05-09 数据分析师八成以上的时间在和数据表格打交道,但许多人拿到Excel后习惯性地先算、先分析,结果回头发现漏了一列关键数据, ...
2026-05-09在数据驱动运营的时代,指标是连接业务目标与实际行动的核心桥梁,是企业解读业务现状、发现问题、预判趋势的“量化标尺”。一套 ...
2026-05-08在存量竞争日趋激烈的商业时代,“以客户为中心”早已从口号落地为企业运营的核心逻辑。而客户画像作为打通“了解客户”与“服务 ...
2026-05-08