京公网安备 11010802034615号
经营许可证编号:京B2-20210330
让数据发挥价值 金融保险需建数据生态体系
数据是保险业经营、管理和决策的重要基础,数据综合利用是近年来保险行业信息化建设的核心。保险业持续发展的数据业务建设提速,给保险行业运营中心对数据进行集中处理提出了更高的要求,这也成为保险公司发展规划中的重要内容。
大信息量亟需数据保护
据有关数据,近五年间,中国保险业信息化整体投资规模的年复合增长率大约为10.53%.目前,大部分的保险公司已经实现业务数据大集中,建立起各自的大后援。然而,在这片看上去宁静清新的风景后面,却有数百条繁忙的热线电话和一刻也不能停止的数据处理中心。如何充分利用数据大集中的成果,建立完善科学的保险数据体系,逐步强化数据挖掘和数据资产利用的能力,准确掌握保险市场需求变化,改善客户服务质量,推进保险创新发展,促进保险业增长方式转变。
如何通过信息化建设促进经营现代化和管理精细化,降低保险经营成本,通过信息化建设促进保险电子商务、跨地区保险服务等新型业务模式,加快保险创新。如何通过信息化建设加强前台服务资源整合和后台资源集中,促进资源利用高效化,有效支持保险综合经营和集团化发展的需要。这三个如何都是保险行业目前亟需要解决的问题。
价值保护闪存助力
数据价值对于金融保险行业至关重要,HDS副总裁兼中国大陆及台湾地区总经理庄国光曾接受记者采访时就表示:“金融行业客户如今对存储数据的要求有着独特的看法,客户多以价值创造为导向,成本意识强,他们如今更注重数据来为其提高价值创造的能力。”
确实,目前来看,中国平安、中国人保、中国人寿等大型保险集团均已建立或正在建立自己的大型后援中心,对数据保护建设的投入明显加快。中国平安早在2003年就启动了后援管理中心的立项工作,是国内最早采用后援集中管理模式的金融机构,进一步发挥数据对其发展的引领和支撑作用,是中国平安面临的一项重要而艰巨的任务。这也是中国平安保险(集团)股份有限公司决定部署HDS企业级加速闪存模块(HDS Accelerated Flash,简称HAF)的分层存储解决方案实现了核心结构化的数据生态体系的原因。
管理+可控是关键
庄国光表示:“闪存存储系统最大优势是提供远超磁盘存储系统的性能,HDS的分层存储方案在提供了强大的存储性能基础支持,又提供了业界企业级存储所具有的高可靠性和丰富的管理功能性,而且混合部署方式可以大大提升存储服务总体性价比,分层解决方案以相同的成本提供不同业务需要的性能,这非常适应了当前金融行业OLTP应用场景存储服务持续发展的要求。”
HAF是HDS针对企业级应用设计的闪存技术,配合存储系统上的HAF闪存访问加速软件和HDS Dynamic Tiering动态分层软件,能优化对闪存模块的访问,实现自动化的数据和文件分层,让大容量低功耗的闪存盘真正融入基础架构中。
方案优势分析
为了应对在业务高峰期会出现爆炸性的访问增长,HDS在不改变平安现阶段的存储体系架构的同时,最大化地发挥闪存优势,建立了高性能、高扩展和高可靠的分层数据存储平台。HAF在设计时规避了传统SSD的一些缺陷,在持续性能方面,它是传统MLC SSD的五倍;在单位容量和存储密度方面,HAF是传统SSD的四倍,可以有效降低闪存的单位成本。同时,HAF解决了很多闪存固有的生命周期和访问性能下降问题:
首先,普通的 MLC寿命有限,在重复擦写一段时间之后闪存颗粒和闪存控制器都会无法使用。HAF利用专有闪存控制器,可以保证数据被写到更多的芯片上,减少对少数闪存芯片进行大量擦写的操作;另外,HAF还增加冗余的闪存芯片,以替换磨损较严重的芯片。
其次,闪存颗粒在重复擦写一定次数之后性能会骤降,这个缺点使得闪存很难在企业级存储中进行大规模的推广。HAF的闪存控制器可以有效的对多余空间进行回收,芯片数据的整理以及数据的在线压缩等等;此外,HAF增加闪存总线和eMLC的芯片,32条闪存总线和128个eMLC闪存芯片都有利于减少对单一闪存芯片进行过多的擦写,而且可以提升闪存的读写性能。
另外,借助HDS加速软件Flash acceleration和动态分层软件HDT (HDS Dynamic Tiering),能够更充分发挥HAF的性能。尤其HDT利用调用最频繁的分页对最高存储层进行完全分配,可以最大限度提高其利用率,从而提供最佳性能。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在实验检测、质量控制、科研验证等场景中,“方法验证”是确保检测/分析结果可靠、可复用的核心环节——无论是新开发的检测方法 ...
2026-03-04在数据分析、科研实验、办公统计等场景中,我们常常需要对比两组数据的整体差异——比如两种营销策略的销售额差异、两种实验方案 ...
2026-03-04在数字化转型进入深水区的今天,企业对数据的依赖程度日益加深,而数据治理体系则是企业实现数据规范化、高质量化、价值化的核心 ...
2026-03-04在深度学习,尤其是卷积神经网络(CNN)的实操中,转置卷积(Transposed Convolution)是一个高频应用的操作——它核心用于实现 ...
2026-03-03在日常办公、数据分析、金融理财、科研统计等场景中,我们经常需要计算“平均值”来概括一组数据的整体水平——比如计算月度平均 ...
2026-03-03在数字化转型的浪潮中,数据已成为企业最核心的战略资产,而数据治理则是激活这份资产价值的前提——没有规范、高质量的数据治理 ...
2026-03-03在Excel办公中,数据透视表是汇总、分析繁杂数据的核心工具,我们常常通过它快速得到销售额汇总、人员统计、业绩分析等关键结果 ...
2026-03-02在日常办公和数据分析中,我们常常需要探究两个或多个数据之间的关联关系——比如销售额与广告投入是否正相关、员工出勤率与绩效 ...
2026-03-02在数字化运营中,时间序列数据是CDA(Certified Data Analyst)数据分析师最常接触的数据类型之一——每日的营收、每小时的用户 ...
2026-03-02在日常办公中,数据透视表是Excel、WPS等表格工具中最常用的数据分析利器——它能快速汇总繁杂数据、挖掘数据关联、生成直观报表 ...
2026-02-28有限元法(Finite Element Method, FEM)作为工程数值模拟的核心工具,已广泛应用于机械制造、航空航天、土木工程、生物医学等多 ...
2026-02-28在数字化时代,“以用户为中心”已成为企业运营的核心逻辑,而用户画像则是企业读懂用户、精准服务用户的关键载体。CDA(Certifi ...
2026-02-28在Python面向对象编程(OOP)中,类方法是构建模块化、可复用代码的核心载体,也是实现封装、继承、多态特性的关键工具。无论是 ...
2026-02-27在MySQL数据库优化中,索引是提升查询效率的核心手段—— 面对千万级、亿级数据量,合理创建索引能将查询时间从秒级压缩到毫秒级 ...
2026-02-27在数字化时代,企业积累的海量数据如同散落的珍珠,若缺乏有效的梳理与分类,终将难以发挥实际价值。CDA(Certified Data Analys ...
2026-02-27在问卷调研中,我们常遇到这样的场景:针对同一批调查对象,在不同时间点(如干预前、干预后、随访期)发放相同或相似的问卷,收 ...
2026-02-26在销售管理的实操场景中,“销售机会”是核心抓手—— 从潜在客户接触到最终成交,每一个环节都藏着业绩增长的关键,也暗藏着客 ...
2026-02-26在CDA数据分析师的日常工作中,数据提取、整理、加工是所有分析工作的起点,而“创建表”与“创建视图”,则是数据库操作中最基 ...
2026-02-26在机器学习分析、数据决策的全流程中,“数据质量决定分析价值”早已成为行业共识—— 正如我们此前在运用机器学习进行分析时强 ...
2026-02-25在数字化时代,数据已成为企业决策、行业升级的核心资产,但海量杂乱的原始数据本身不具备价值—— 只有通过科学的分析方法,挖 ...
2026-02-25