
1T数据到底有多大
一英里不是个很长的距离,一立方英里相对于地球也不会让人觉得是个很大的空间。然后我说,这个空间内能装下全世界所有人,你会不会觉到很惊讶?不过这话不是我说的,是美国作家房龙在一本书里写的。
业内有个著名的数据仓库产品,叫Teradata,20多年前起这个名字,显然是想给人能处理海量数据的感觉。可现在,论用户还是厂商,谈论数据量时都常常以T为单位了,动不动就有几十上百T甚至PB级的数据。似乎T不是个多大的数,多几个几十个T也没什么大不了的。
其实T有点像上面说的立方英里,是个挺大的数。很多人对它没有多深的感性认识,我们要换个角度来看1T数据意味着什么。
先从空间上看
用于分析计算的数据仍然以结构化数据为主。结构化数据中占据空间最大的是不断增长的交易类记录,这种数据每条并不大,大概只有几十到100字节,比如银行交易只要记下帐号、日期、金额;电信的通话记录也只是通话号码、时刻、时长等。就按100字节算,也就是0.1K,那么1T空间就可以放下10G行记录,100亿条!
这是什么概念呢?一年大概是3000多万秒,如果用一年时间来积累1T数据,那意味着每秒要产生300多笔记录,24小时不停息!
这个数也不算大,像中国这样的大国,电信运营商、全国级银行以及大型互联公司都不难有这种规模的业务量。但对于一个城市级别甚至有些省级的机构就是个不小的数了,比如税务部门采集的企业交税信息、连锁超市的商品购买数据、城市商业银行的交易记录等,要达到300笔/秒并不容易,何况很多机构只有白天或工作日才能产生数据。而且这还只是1T,要搞到几十上百T,那就得让业务量再上一两个数量级才行。
简单说有多少T数据是没什么感觉的,换算成每秒对应的业务量后,才知道是不是靠谱。大数据分析计算产品的技术方案和数据量相关性非常强,正确估算自己的数据量对于大数据平台的建设是至关重要的。
如果用来存储音频视频这种非结构化数据, 或者仅仅用于备份原始凭据,那1T空间就存不了多少东西了,但这种数据一般也没什么要分析计算的需求,只是存储和检索,那不需要什么大数据计算平台,只要有个网络文件系统就行了,这成本就低多了。
再从时间上看
假设有1T数据,那么要多少时间才能处理一遍?有些厂商宣称能在数秒内处理TB级数据,用户经常也这样期望,这可能吗?
机械硬盘在操作系统下的读取数据大概是150M/秒(不能看硬盘厂商那个指标,根本达不到),固态硬盘快些,能翻个倍。我们就算300M/秒,那么1T数据只是读取不做任何运算也需要3000秒以上,接近一个小时!那怎么可能数秒内处理1T数据呢?很简单,增加硬盘,如果有1000块硬盘,那就可以在3秒左右读出1T数据了。
这还是比较理想的估算。实际上数据不大可能存放着那么整齐(硬盘不连续读取时性能下降严重),集群(1000块硬盘显然不会在一台机器上)还有网络延迟,有些运算可能还有回写动作(大分组和排序等),秒级访问常常还会有并发需求,这些因素综合起来,再慢几倍也是正常的。
现在我们知道了,1T数据意味着几个小时,或者上千块硬盘。而且还是前面的话,这只算了1T,可想而知几十上百T会是什么概念了。
有人说,硬盘太慢了,我们改用内存。
内存是比硬盘快得多,而且还适合并行计算。不过大内存的机器并不便宜(成本不是线性增长的),而且更糟糕的是,内存使用率经常很低。比如许多计算体系都是基于Java平台的,如果不做特别的压缩优化的话,JVM的内存利用率只有20%的样子,也就是硬盘上1T数据需要5T内存才能加载进来,这得装多少机器,花多少钱?
我们对1T有了上面这些感性认识后,听到多少多少T的说法时,就可以随时脑补出交易、节点数、成本等信息。做平台规划和产品选择时,就不容易被忽悠了。Teradata这个名字,今天也还不算过时的。
蒋步星,清华大学计算机硕士,著有《非线性报表模型原理》等
1989年中国国际奥林匹克数学竞赛团体冠军成员,个人金牌。
2000年创立润乾公司,首次在润乾报表中提出非线性报表模型,完美解决了中国式复杂报表制表难题,目前该模型已经成为报表行业的标准。
2008年开始研发不依赖关系型数据的计算引擎,历经多个版本后,于2014年集算器正式发布。有效地提高了复杂结构化大数据计算的开发速度和运算效率。
2016年荣获中国电子信息产业发展研究院评选的“2016年中国软件和信息服务业 • 十大领军人物”。
2017年将带领润乾软件朝着拥有自主产权的非关系型强计算数据仓库、云数据库等产品迈进。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数据成为新时代“石油”的今天,几乎每个职场人都在焦虑: “为什么别人能用数据驱动决策、升职加薪,而我面对Excel表格却无从 ...
2025-10-18数据清洗是 “数据价值挖掘的前置关卡”—— 其核心目标是 “去除噪声、修正错误、规范格式”,但前提是不破坏数据的真实业务含 ...
2025-10-17在数据汇总分析中,透视表凭借灵活的字段重组能力成为核心工具,但原始透视表仅能呈现数值结果,缺乏对数据背景、异常原因或业务 ...
2025-10-17在企业管理中,“凭经验定策略” 的传统模式正逐渐失效 —— 金融机构靠 “研究员主观判断” 选股可能错失收益,电商靠 “运营拍 ...
2025-10-17在数据库日常操作中,INSERT INTO SELECT是实现 “批量数据迁移” 的核心 SQL 语句 —— 它能直接将一个表(或查询结果集)的数 ...
2025-10-16在机器学习建模中,“参数” 是决定模型效果的关键变量 —— 无论是线性回归的系数、随机森林的树深度,还是神经网络的权重,这 ...
2025-10-16在数字化浪潮中,“数据” 已从 “辅助决策的工具” 升级为 “驱动业务的核心资产”—— 电商平台靠用户行为数据优化推荐算法, ...
2025-10-16在大模型从实验室走向生产环境的过程中,“稳定性” 是决定其能否实用的关键 —— 一个在单轮测试中表现优异的模型,若在高并发 ...
2025-10-15在机器学习入门领域,“鸢尾花数据集(Iris Dataset)” 是理解 “特征值” 与 “目标值” 的最佳案例 —— 它结构清晰、维度适 ...
2025-10-15在数据驱动的业务场景中,零散的指标(如 “GMV”“复购率”)就像 “散落的零件”,无法支撑系统性决策;而科学的指标体系,则 ...
2025-10-15在神经网络模型设计中,“隐藏层层数” 是决定模型能力与效率的核心参数之一 —— 层数过少,模型可能 “欠拟合”(无法捕捉数据 ...
2025-10-14在数字化浪潮中,数据分析师已成为企业 “从数据中挖掘价值” 的核心角色 —— 他们既要能从海量数据中提取有效信息,又要能将分 ...
2025-10-14在企业数据驱动的实践中,“指标混乱” 是最常见的痛点:运营部门说 “复购率 15%”,产品部门说 “复购率 8%”,实则是两者对 ...
2025-10-14在手游行业,“次日留存率” 是衡量一款游戏生死的 “第一道关卡”—— 它不仅反映了玩家对游戏的初始接受度,更直接决定了后续 ...
2025-10-13分库分表,为何而生? 在信息技术发展的早期阶段,数据量相对较小,业务逻辑也较为简单,单库单表的数据库架构就能够满足大多数 ...
2025-10-13在企业数字化转型过程中,“数据孤岛” 是普遍面临的痛点:用户数据散落在 APP 日志、注册系统、客服记录中,订单数据分散在交易 ...
2025-10-13在数字化时代,用户的每一次行为 —— 从电商平台的 “浏览→加购→购买”,到视频 APP 的 “打开→搜索→观看→收藏”,再到银 ...
2025-10-11在机器学习建模流程中,“特征重要性分析” 是连接 “数据” 与 “业务” 的关键桥梁 —— 它不仅能帮我们筛选冗余特征、提升模 ...
2025-10-11在企业的数据体系中,未经分类的数据如同 “杂乱无章的仓库”—— 用户行为日志、订单记录、商品信息混杂存储,CDA(Certified D ...
2025-10-11在 SQL Server 数据库操作中,“数据类型转换” 是高频需求 —— 无论是将字符串格式的日期转为datetime用于筛选,还是将数值转 ...
2025-10-10