京公网安备 11010802034615号
经营许可证编号:京B2-20210330
大数据遇上大型机 结果会如何?
进入数据大爆炸时代,企业所面临的局面无疑更复杂了。看着日益累积的各种数据,相信有不少用户都有这样的感觉:明知面前是座金矿,却苦于没有合适的开采方法,只能任机会流逝。
当然,并不是所有用户都在坐等时机,也有不少在尝试的。比如有用户在用分布式平台进行数据的整合、存储、分析、应用,也有用户在用集中式平台进行相关的工作,同样还有用户从分布式平台转向集中式平台。
究竟谁好?各有各的道理,不妨看个具体的案例,从中或许能受到一些启发。
Banca Carige实践心得
Banca Carige Group (Banca Carige) 是意大利的一家银行,距今已经有500多年的历史。其雇佣约6000名员工,有650多个网点,服务120万客户,年营业总额超过8亿欧元。
随着银行业的主战场不断转向移动端,Banca Carige凭借500多年服务客户的经验,果断地提出了改进计划,即通过数据分析更好地了解客户行为,从而达到吸引新客户服务老客户的目的。
最终Banca Carige选择了IBM 大型机作为未来的业务承载平台。至于原因,就像Banca Carige 的ICT治理经理Daniele Cericola所讲,“在银行业中,可用性与安全性对于业务而言至关重要,而大型机的这些性能都经过了实践检验,这一事实使其自然而然成为了我们新计划的平台之选。”
从这个角度看,Banca Carige选择大型机更多还是从安全性、可用性方面出发的结果。由于其之前一直在使用大型机(多年来,Banca Carige一直在采用IBM DB2数据库的IBM CICS Transaction Server上运行包括账户、支付、贷款等在内的核心银行系统,而该数据库位于可运行IBM z/OS的两台IBM zEnterprise EC12 服务器上),给出这样的理由并不意外,那究竟大型机在数据分析方面的表现如何呢,是不是能满足Banca Carige的需求?
“满意。”Daniele Cericola表示,“通过整合,我们所有的分析都是针对大型机的数据仓库进行的,借此我们可获得单一事实来源,而且在为所有新需求开发分布式数据集市时能够避免多余的成本投入和复杂性。”
据悉,Banca Carige已经将原来运行在分布式环境的多个营销数据库和应用迁移至了大型机,并借助运行在Red Hat Enterprise Linux上的IBM Campaign软件开发了新的活动管理数据模型,同时将这些整合至大型机环境中,从而使 DB2 for z/OS 成为分析和大数据唯一的数据储存库。
简单来说,相当于用大型机构建了一个平台,现在这些数据统一在这个平台进行处理。很显然,这个过程所需要的采购成本、电力成本、人力成本在一定范围内并不会像分布式平台那样随着业务量的增加而增加。也就是说,使用大型机做大数据分析并不一定比使用分布式架构成本更高。
虽然短短几段话,但是透露的内容很多。比如鉴于大型机强大的整合能力,最终的TCO并不一定高;再比如支持Linux,使得其解决方案变得更加丰富……
就像Daniele Cericola 在采访中所讲,“在大型机的 Linux 环境中运行我们的移动银行服务,使我们在大型机发展方面又迈进了一步。我们的关键业务价值是,最重要的服务可通过一致稳定的具有高度安全性的平台进行统一管理,而且该平台要能提供一流的可扩展性与性能。”应该说这就是对大型机核心价值的准确概括。
其实类似这样的应用案例还有很多,比如花旗银行、乐购、珠海社保等。
与时俱进的大型机
当然,举了这么一个例子笔者想说的并不是一定要使用大型机进行数据分析,事实上,大型机肯定有其更擅长、更适用的领域。笔者想说的是,在分布式环境大张旗鼓的今天,其实用户还有另外的选择,而且这个选择本身也在发生着变化,这才是最重要的。
说起大型机本身,可能很多人的印象依旧停留在几年甚至十几年前,呆板、贵、封闭。事实上,大型机早已通过实际行动着力改变这一形象。
它不断开放自己,尽管不能说IBM一直在引领潮流,但至少也是在紧跟趋势,比如IBM是 最早的Linux支持者,IBM大型机也很早就支持了Linux,再比如随着OpenStack的兴起,IBM大型机也支持在OpenStack平台上对 其进行统一管理。另外还有很多开源软件,IBM大型机均可支持,包括Docker、Hadoop、Spark、MongoDB、MariaDB等。
它不断提升自己的性能,单台最高支持8000台虚拟机,提供无与伦比的扩展性;在动态多线程技术的帮助下,Linux和Java工作负载运行速度提升30%。论整合能力、性能、安全性、可靠性,绝对无人可及。
它不断以更低的成本来面对用户,当然这个成本不仅是采购成本,因为IT系统的采购成本只占总体拥有成本(TCO)的一小部分,还包括电力、运维、管理等成本,试想能容纳8000台虚拟机的大型机能整合多少台服务器?应该说这个数量是惊人的,由此带来的后期使用成本的节约也是巨大的。
凭借着与时俱进,市场给了大型机、给了IBM积极的反馈。根据IDC发布的2015年第 二季度服务器市场调研报告显示,该季度IBM z13大型机表现强劲,同比增幅近两位数。根据刚刚发布的2016年第一季度IBM财报显示,与去年同期相比,来自z Systems大型主机服务器产品的营收增长了16%(计入汇率变动影响后上涨了21%)。以MIPS(每秒百万指令数)计算的z Systems所交付的计算能力,上升了28%。
记者观察
好多人说大型机不行了,但我们看到的却是大型机的逆势增长,这说明什么?这表明集中式与 分布式之争从来就不是非此即彼的关系,用户关心的只是是否有更好解决问题的方案,这才是他们的根本出发点。因此,就厂商而言,要做的是不断完善方案,并让 用户认识到其中的价值;对于用户而言,则要对各方解决方案有个充分的比较。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
近日,由 CDA 数据科学研究院重磅发布的《2026 全球数智化人才指数报告》,被中国教育科学研究院官方账号正式收录, ...
2026-04-22在数字化时代,客户每一次点击、浏览、下单、咨询等行为,都在传递其潜在需求与决策倾向——这些按时间顺序串联的行为轨迹,构成 ...
2026-04-22数据是数据分析、建模与业务决策的核心基石,而“数据清洗”作为数据预处理的核心环节,是打通数据从“原始杂乱”到“干净可用” ...
2026-04-22 很多数据分析师每天盯着GMV、转化率、DAU等数字看,但当被问到“什么是指标”“指标和维度有什么区别”“如何搭建一套完整的 ...
2026-04-22在数据分析与业务决策中,数据并非静止不变的数值,而是始终处于动态波动之中——股市收盘价的每日涨跌、企业月度销售额的起伏、 ...
2026-04-21在数据分析领域,当研究涉及多个自变量与多个因变量之间的复杂关联时,多变量一般线性分析(Multivariate General Linear Analys ...
2026-04-21很多数据分析师精通描述性统计,能熟练计算均值、中位数、标准差,但当被问到“用500个样本如何推断10万用户的真实满意度”“这 ...
2026-04-21在数据处理与分析的全流程中,日期数据是贯穿业务场景的核心维度之一——无论是业务报表统计、用户行为追踪,还是风控规则落地、 ...
2026-04-20在机器学习建模全流程中,特征工程是连接原始数据与模型效果的关键环节,而特征重要性分析则是特征工程的“灵魂”——它不仅能帮 ...
2026-04-20很多数据分析师沉迷于复杂的机器学习算法,却忽略了数据分析最基础也最核心的能力——描述性统计。事实上,80%的商业分析问题, ...
2026-04-20在数字化时代,数据已成为企业决策的核心驱动力,数据分析与数据挖掘作为解锁数据价值的关键手段,广泛应用于互联网、金融、医疗 ...
2026-04-17在数据处理、后端开发、报表生成与自动化脚本中,将 SQL 查询结果转换为字符串是一项高频且实用的操作。无论是拼接多行数据为逗 ...
2026-04-17面对一份上万行的销售明细表,要快速回答“哪个地区卖得最好”“哪款产品增长最快”“不同客户类型的购买力如何”——这些看似复 ...
2026-04-17数据分析师一天的工作,80% 的时间围绕表格结构数据展开。从一张销售明细表到一份完整的分析报告,表格结构数据贯穿始终。但你真 ...
2026-04-16在机器学习无监督学习领域,Kmeans聚类因其原理简洁、计算高效、可扩展性强的优势,成为数据聚类任务中的主流算法,广泛应用于用 ...
2026-04-16在机器学习建模实践中,特征工程是决定模型性能的核心环节之一。面对高维数据集,冗余特征、无关特征不仅会增加模型训练成本、延 ...
2026-04-16在数字化时代,用户是产品的核心资产,用户运营的本质的是通过科学的指标监测、分析与优化,实现“拉新、促活、留存、转化、复购 ...
2026-04-15在企业数字化转型、系统架构设计、数据治理与AI落地过程中,数据模型、本体模型、业务模型是三大核心基础模型,三者相互支撑、各 ...
2026-04-15数据分析师的一天,80%的时间花在表格数据上,但80%的坑也踩在表格数据上。 如果你分不清数值型和文本型的区别,不知道数据从哪 ...
2026-04-15在人工智能与机器学习落地过程中,模型质量直接决定了应用效果的优劣——无论是分类、回归、生成式模型,还是推荐、预测类模型, ...
2026-04-14