京公网安备 11010802034615号
经营许可证编号:京B2-20210330
大数据在保险行业的应用实践
DT时代的到来,使得金融业对数据的依赖越发加强,众多的金融环节都需要通过对数据的收集和分析后完成。银行业每创收100万美元,平均就会产生820GB的数据!
数据来源:SINIA,NextGen Storage,BDG等,2015年
纵观海外,已有三分之一的银行在组织流程中嵌入了匹配大数据的工作方式,识别出更多的商业机会。他们在多年的实践和不断试错后,运用成熟的分析手段,持续地获得有价值的商业洞察!而国内商业银行经过信息化的建设也积累了大量的数据(有数据称>100TB),这些数据一方面在经历整合清洗的过程(以提高数据质量,保证可用性),一方面也在进行着统计分析。
而在数据分析上,大量的数据产生的有效分析结果却非常有限,犹如人体血液中血细胞不足一样,商业银行们也都或多或少患有“数据贫血症”!面对这样的情况,近十年来,银行大多数采用的传统解决方案是“以项目的节奏先建数据仓库、再投入人力运维数据仓库开发报表”。前者主要是对数据的数理,也是不可避免的。但后者的方式导致了很多效率和效果的问题,比如下图中业务人员和科技人员的“对话”!
银行的客户,无论是一线客户经理,还是总行运营部门,亦或科技中心领导,对这个图反应的问题都会有强烈共鸣。这些问题主要导致了3个管理缺陷:
1、 不够迅速:社会上多个朋友多条路,企业里多个流程多堵墙!当业务部门的任何需求都要提交到冷冰冰的流程系统,还要去关注、催促、期待,恐怕有相当多的“小需求”都会被自行浇灭掉了!
2、 不够灵活:无论什么样的BI前端软件,按照“需求分析”做出来的成品,一旦交付都存在难以调整、修改、变更的问题,哪怕增加个参数、增加个计算字段、换个图形都无法绕开“流程”!
3、 难以共享:经历过这样的过程,有哪个业务用户愿意把这样的成果“分享”出来呢?
我们分析问题不难看出,传统的集中开发报表模式是无法适应DT时代的“数据化运营“需求的,以前的“数据”被赋予了生产力属性,变成了银行中重要的“生产资料”!在这样的时代、管理背景下,“自助分析”就被提上了日程!
数据的自助分析如同自助餐厅的模式一样,有人专注于准备美味的数据和舒适的消费环境,更多的人可以尽情选用、组合、品尝“美食”!我们仔细观察一下这样的自助餐厅,会受到很多启发,简单来说至少有5个方面的工作需要考虑:
- 选餐导引:好点的自助餐厅一般都会包含凉菜区、热菜区、海鲜区、饮料区、水果区等等。如果没有人工或者标识牌的导引,顾客就会产生很多不必要的走动,不仅影响运行效率而且破坏了就餐环境。对自助化数据分析道理也是一样的,首先应向用户(就餐者)提供清晰的元数据服务,说清楚“这里有什么数据”和“它是什么样的数据”,否则也会引起同样混乱的后果!
- 丰富食材:古人云“巧妇难为无米之炊”,无论是否自助化,原材料(数据)的质量是最基本的保障。在BI的行业内,也有这样的训诫——“garbage in garbage out”,就在提醒我们要始终保持对数据质量(完整、准确、及时)的关注!
- 加工服务:原材料很多时候不能直接享用,比如要进行选取、清洗、烹饪等工序,这就好比BI行业里的ETL工作。一般来说,会有非常专业的厨师各自负责食材加工,只是有些加工的过程(蒸、炒等)是在后厨完成的,有些加工过程(切、煮等)是在用户面前“交付“的。类似的,提供自助化数据分析,也不可避免的会需要数据加工处理的环节,其中有的处理复杂,也有的处理简单,单纯想开放原始数据进行数据分析的说法和想法,都有点过于理想了!
- 便捷工具:自助餐的工具包括辅料和餐具,辅料比如油盐辣椒芥末等,餐具比如刀、叉、勺、筷、盘、碗等。对自助化数据分析来说,查询数据、分析数据、设计格式化报表、制作可视化报告、编制分析报告等功能是否具备且简单易用,就是BI前端工具的核心竞争力了!
- 舒适环境:有了丰富的、高质量的数据,也有了专业的加工过程,用户也可以快速找到可口的“食物”并进行自助的调味和享用,剩下的就需要规划好就餐的环境了。比如如何排队、如何等待、如何收拾、如何反馈等等。这里每个细节,都可以映射到自助化数据分析的平台功能上来
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数据分析、质量控制、科研实验等场景中,数据波动性(离散程度)的精准衡量是判断数据可靠性、稳定性的核心环节。标准差(Stan ...
2026-01-29在数据分析、质量检测、科研实验等领域,判断数据间是否存在本质差异是核心需求,而t检验、F检验是实现这一目标的经典统计方法。 ...
2026-01-29统计制图(数据可视化)是数据分析的核心呈现载体,它将抽象的数据转化为直观的图表、图形,让数据规律、业务差异与潜在问题一目 ...
2026-01-29箱线图(Box Plot)作为数据分布可视化的核心工具,能清晰呈现数据的中位数、四分位数、异常值等关键统计特征,广泛应用于数据分 ...
2026-01-28在回归分析、机器学习建模等数据分析场景中,多重共线性是高频数据问题——当多个自变量间存在较强的线性关联时,会导致模型系数 ...
2026-01-28数据分析的价值落地,离不开科学方法的支撑。六种核心分析方法——描述性分析、诊断性分析、预测性分析、规范性分析、对比分析、 ...
2026-01-28在机器学习与数据分析领域,特征是连接数据与模型的核心载体,而特征重要性分析则是挖掘数据价值、优化模型性能、赋能业务决策的 ...
2026-01-27关联分析是数据挖掘领域中挖掘数据间潜在关联关系的经典方法,广泛应用于零售购物篮分析、电商推荐、用户行为路径挖掘等场景。而 ...
2026-01-27数据分析的基础范式,是支撑数据工作从“零散操作”走向“标准化落地”的核心方法论框架,它定义了数据分析的核心逻辑、流程与目 ...
2026-01-27在数据分析、后端开发、业务运维等工作中,SQL语句是操作数据库的核心工具。面对复杂的表结构、多表关联逻辑及灵活的查询需求, ...
2026-01-26支持向量机(SVM)作为机器学习中经典的分类算法,凭借其在小样本、高维数据场景下的优异泛化能力,被广泛应用于图像识别、文本 ...
2026-01-26在数字化浪潮下,数据分析已成为企业决策的核心支撑,而CDA数据分析师作为标准化、专业化的数据人才代表,正逐步成为连接数据资 ...
2026-01-26数据分析的核心价值在于用数据驱动决策,而指标作为数据的“载体”,其选取的合理性直接决定分析结果的有效性。选对指标能精准定 ...
2026-01-23在MySQL查询编写中,我们习惯按“SELECT → FROM → WHERE → ORDER BY”的语法顺序组织语句,直觉上认为代码顺序即执行顺序。但 ...
2026-01-23数字化转型已从企业“可选项”升级为“必答题”,其核心本质是通过数据驱动业务重构、流程优化与模式创新,实现从传统运营向智能 ...
2026-01-23CDA持证人已遍布在世界范围各行各业,包括世界500强企业、顶尖科技独角兽、大型金融机构、国企事业单位、国家行政机关等等,“CDA数据分析师”人才队伍遵守着CDA职业道德准则,发挥着专业技能,已成为支撑科技发展的核心力量。 ...
2026-01-22在数字化时代,企业积累的海量数据如同散落的珍珠,而数据模型就是串联这些珍珠的线——它并非简单的数据集合,而是对现实业务场 ...
2026-01-22在数字化运营场景中,用户每一次点击、浏览、交互都构成了行为轨迹,这些轨迹交织成海量的用户行为路径。但并非所有路径都具备业 ...
2026-01-22在数字化时代,企业数据资产的价值持续攀升,数据安全已从“合规底线”升级为“生存红线”。企业数据安全管理方法论以“战略引领 ...
2026-01-22在SQL数据分析与业务查询中,日期数据是高频处理对象——订单创建时间、用户注册日期、数据统计周期等场景,都需对日期进行格式 ...
2026-01-21