京公网安备 11010802034615号
经营许可证编号:京B2-20210330
大数据流式处理一个不能忽视的问题_数据分析师
这要从数据处理的基本面:内存、存储、数据谈起。
大家都知道,一个大数据集群是由很多台计算机连上网络组成的。计算机里面都有CPU、内存、硬盘,计算机通过网络交换数据执行分布计算工作。集群会按照规则,同时运行着一批执行不同工作的分布计算任务,每次分布计算任务处理的数据容量也不尽相同,少的几十几百M,多的几十几百G,更大的有时候会达到TB的规模(我们在各地部署的Laxcus集群时常处理TB级的数据)。如果当集群中某个时刻迸发出一个超大数据容量的计算任务,这些数据要分散到不同的计算机上去执行计算工作,这个总的数据容量超过集群的内存容量的时候,怎么办?
在存储模式下,这个问题很容易解决:拿硬盘来做缓存过渡。数据进来,检查一下它的尺寸,如果太大,或者一时半会儿处理过不来,就先放到硬盘保存起来。毕竟现在硬盘都已经做到TB级,不差钱的话,一台计算机还可以多配几个。能够利用的存储空间比内存大得多。
放到了流式处理模式下,这个问题就纠结了。如果数据进入后硬盘再处理,就和存储模式没啥区别了。如果不是这样,数据就会太多而内存不足,内存就要溢出,数据就要丢失。集群里任何一台计算机出现这样的故障,整个分布计算任务就是失败。
缓解这个问题的一个办法是升级计算机,CPU换成64位的,然后装更多的内存。原因是32位计算机内存上限是4G,一个集群里,如果都是32位计算机,同时出现几个TB计算任务,那得要多少台计算机?64位计算机可以装更多内存,这样计算机数量可以少些。还顺带提醒一下,虽然内存的价格现在比以前是大大便宜了,但是和硬盘相比,单位容量还是贵得多!这样的成本问题一般运营商会比较在意。另外,这只是暂时的解决办法,谁也不知道下一次的超大数据计算任务啥时候发生,和同时会有几个这样的超大计算任务发生。
比较靠谱的解决办法是在任务计算前,在数据量和集群内存之间做一个评估。当计算任务进来的时候,判断一下它携带数据的最大尺寸,如果集群的内存足够,就把这些内存"预分配"给这个计算任务(这个工作要细划到每一台计算机)。如果不够,就让它等着,直到其它计算任务完成工作,内存被回收,新的内存足够时,才放它执行工作。第二种办法和存储模式差不多,数据先放在硬盘里存着,然后也是等到内存足够了,再执行它的工作。当然,这两种办法都会降低流式处理的计算效率,但也是没有办法的办法,总比出现内存溢出、计算任务失败这样的故障好吧。
综上所述,流式处理是一种成本和效费比都高的计算模式。如果你是土豪,像BAT一样,有足够的银子,只关注数据处理的高性能,不在乎往基础设施上多撒几个钱,尽可以配上强劲的CPU、超大的内存和硬盘或者固态盘,万兆的光纤网络,这时候加上流式处理是上选。如果你是一穷人,缺银子,计算机的性能差,手上一把的32位老式计算机(我们有一个Laxcus集群现在还在用PentiumIII图拉丁芯片,就因为这家伙省电,老而弥坚!),内存有限,网络也不咋的,掏不起太多的电费,不计较数据计算的快和慢,那么凑合凑合,还是考虑存储模式吧。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
主讲人简介 张冲,海归统计学硕士,CDA 认证数据分析师,前云南白药集团资深数据分析师,自媒体 Python 讲师,全网课程播放量破 ...
2026-04-10在数据可视化与业务分析中,同比分析是衡量业务发展趋势、识别周期波动的核心手段,其核心逻辑是将当前周期数据与上年同期数据进 ...
2026-04-10在机器学习模型的落地应用中,预测精度并非衡量模型可靠性的唯一标准,不确定性分析同样不可或缺。尤其是在医疗诊断、自动驾驶、 ...
2026-04-10数据本身是沉默的,唯有通过有效的呈现方式,才能让其背后的规律、趋势与价值被看见、被理解、被运用。统计制图(数据可视化)作 ...
2026-04-10在全球化深度发展的今天,跨文化传播已成为连接不同文明、促进多元共生的核心纽带,其研究核心围绕“信息传递、文化解读、意义建 ...
2026-04-09在数据可视化领域,折线图是展示时序数据、趋势变化的核心图表类型之一,其简洁的线条的能够清晰呈现数据的起伏规律。Python ECh ...
2026-04-09在数据驱动的时代,数据分析早已不是“凭经验、靠感觉”的零散操作,而是一套具备固定逻辑、标准化流程的系统方法——这就是数据 ...
2026-04-09长短期记忆网络(LSTM)作为循环神经网络(RNN)的重要改进模型,凭借其独特的门控机制(遗忘门、输入门、输出门),有效解决了 ...
2026-04-08在数据分析全流程中,数据质量是决定分析结论可靠性的核心前提,而异常值作为数据集中的“异类”,往往会干扰统计检验、模型训练 ...
2026-04-08在数字经济飞速发展的今天,数据已渗透到各行各业的核心场景,成为解读趋势、优化决策、创造价值的核心载体。而数据分析,作为挖 ...
2026-04-08在数据分析全流程中,数据处理是基础,图形可视化是核心呈现手段——前者负责将杂乱无章的原始数据转化为干净、规范、可分析的格 ...
2026-04-07在数据分析与统计推断中,p值是衡量假设检验结果显著性的核心指标,其本质是在原假设(通常为“无效应”“无差异”)成立的前提 ...
2026-04-07在数字经济深度渗透的今天,数据已成为企业生存发展的核心资产,企业的竞争本质已转变为数据利用能力的竞争。然而,大量来自生产 ...
2026-04-07Python凭借简洁的语法、丰富的生态库,成为算法开发、数据处理、机器学习等领域的首选语言。但受限于动态类型、解释性执行的特性 ...
2026-04-03在深度学习神经网络中,卷积操作是实现数据特征提取的核心引擎,更是让模型“看懂”数据、“解读”数据的关键所在。不同于传统机 ...
2026-04-03当数字化转型从企业的“战略口号”落地为“生存之战”,越来越多的企业意识到,转型的核心并非技术的堆砌,而是数据价值的深度挖 ...
2026-04-03在日常办公数据分析中,数据透视表凭借高效的汇总、分组功能,成为Excel、WPS等办公软件中最常用的数据分析工具之一。其中,“计 ...
2026-04-02在数字化交互的全场景中,用户的每一次操作都在生成动态的行为轨迹——电商用户的“浏览商品→点击详情→加入购物车”,内容APP ...
2026-04-02在数字化转型深度推进的今天,企业数据已成为驱动业务增长、构建核心竞争力的战略资产,而数据安全则是守护这份资产的“生命线” ...
2026-04-02在数据驱动决策的浪潮中,数据挖掘与数据分析是两个高频出现且极易被混淆的概念。有人将二者等同看待,认为“做数据分析就是做数 ...
2026-04-01