京公网安备 11010802034615号
经营许可证编号:京B2-20210330
大数据时代,如何更好地运用云归档_数据分析师
大数据时代,面对非结构化数据的爆发式增长,我们需要更好的存储战略,以便以更低成本访问更多内容,通常思考分布式存储、云备份、云归档或加入分层技术的传统存储方案。美国昆腾国际公司亚太区高级市场营销总监Jim Simon认为,通过备份服务器、基于政策的文档管理以及云归档的结合,能够减少网络负载、备份存储和备份软件许可开支,并减少主存储成本,通常会节约40%的TCO。
昆腾公司昆腾对自身的定位是做数据流(从数据产生、使用到归档的整个过程,也称工作流)存储方案的公司,数据流在媒体、石油天然气勘探等行业最为典型。针对数据长期保存,昆腾已经研发出多种成熟的解决方案和产品,包括:
Jim Simon强调,不断备份相同的静态非结构化文件数据,不仅会给网络资源以及满足备份窗口带来压力, 同时主存储和备份成本也会增加,这会对 IT 预算带来更大的压力,实施归档策略才是解决方案。
昆腾正在致力于传统归档方案的升级,并将其与云归档相结合,以应对整个行业90%的新数据增长是非结构化数据的挑战。这一次,昆腾发布了三个新的增强型产品组合:
1、Artico智能 NAS 设备可在线访问内容,并智能地把数据分层存储到 Q-Cloud归档、 Lattus对象存储或Scala 磁带库中
2、DXi with Arkivio,整合了昆腾DXi设备与Rocket Arkivio Autostor软件,可在同一个设备上同时支持数据备份和归档
3、新的 Lattus扩展在线存储产品 ,带有对象存储节点,集成了新的6TB磁盘驱动器,提高了对象存储密度并降低了每 TB 成本
Artico智能 NAS 设备
根据昆腾对中国100多家用户的调查显示,当数据增长的时候,大约50%的IT经理会继续购买主存储,因为判断常用和不常用数据对IT经理来说还是比较困难的。但昆腾Artico分层策略设计的初衷,就是“在合适的时间把数据放到合适的位置”,它内置StorNext,与Arkivio Autostor数据迁移工具结合,可以帮助IT经理做分析和判断的工作,把内容迁移到成本较低的存储以节约资金,同时通过在一个深度活动库上共享内容而提高工作力。举例而言,针对纯文档的办公环境,Artico会根据文档类型,把视频、图片文件迁移到低成本的Artico存储上,另一个判断依据就是文件使用频率,整个过程对用户完全透明。
Artico本身提供33TB磁盘存储,可扩展到73TB,最多支持10亿份文件。通过云、对象存储或磁带技术,还可以提供更大的可扩展性。这就降低了购买更多主存储的必要性。Artico可通过 NAS 连接集成到多种环境,支持EMC、NetApp、HP、Linux、RedHat、Windows等多种不同的操作系统和主存储。
DXi with Arkivio
在DXi4700及DXi6900阵列,运行Rocket提供的Arkivio数据归档软件,可将主存储阵列的文件转移到Artico设备、或者具备重复数据删除功能的备份磁盘阵列当中,并在其中提供一个专门的归档分区,这可以减少备份窗口和网络占用。Jim Simon称,Arkivio Autostor能够评估数据属性并根据这些属性而支持智能政策,从而把非结构化数据从主存储迁移到DXi重复数据删除设备。
根据Jim Simon的现场演算,对于从主存储迁移到归档的每TB非结构化数据,DXi设备与Arkivio软件的组合可帮助客户节约超过60%的总体存储成本。
新的 Lattus 存储节点
对象存储能够在性能与成本之间实现新的平衡,昆腾Lattus已经利用对象存储技术来扩展在线存储,并提供即时访问数据,它最大的好处就是数据可以存储很多年也不会丢失,而且它能存储上百个TB的数据。此次Lattus提供新的带有6TB数据中心归档驱动器的S30存储节点,将每个阶段的原始容量提高到了72TB,相对当前的S20存储节点,密度提高50%,每TB成本降低了15%。
第三代存储战略解决方案
基于推出的这些新品,昆腾形成了自己的第三代存储战略解决方案,即结构化数据和非结构化数据分离:结构化数据可以备份到昆腾DXi虚拟磁带库备份设备,还可以进一步复制或者拿出一部分拷贝备份到云端或者远端;非结构化数据可以归档到DXi设备或者Artico设备上,最后在移到其他磁带库存储上。到云端或者远端的备份,得益于重复数据删除技术的利用,这不仅实现性能的提升,同时广域网传输也成为可能。
云端的数据备份,目前只支持Q-Cloud。谈到Q-Cloud Artico Archive在国内的进展,Jim Simon表示,正在随着AWS进行测试,未来也可能会支持别的公有云。他同时提醒,如果要完全从云端恢复数据,可能需要花费很多的时间,因而云归档和本地归档的结合非常重要。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在实验检测、质量控制、科研验证等场景中,“方法验证”是确保检测/分析结果可靠、可复用的核心环节——无论是新开发的检测方法 ...
2026-03-04在数据分析、科研实验、办公统计等场景中,我们常常需要对比两组数据的整体差异——比如两种营销策略的销售额差异、两种实验方案 ...
2026-03-04在数字化转型进入深水区的今天,企业对数据的依赖程度日益加深,而数据治理体系则是企业实现数据规范化、高质量化、价值化的核心 ...
2026-03-04在深度学习,尤其是卷积神经网络(CNN)的实操中,转置卷积(Transposed Convolution)是一个高频应用的操作——它核心用于实现 ...
2026-03-03在日常办公、数据分析、金融理财、科研统计等场景中,我们经常需要计算“平均值”来概括一组数据的整体水平——比如计算月度平均 ...
2026-03-03在数字化转型的浪潮中,数据已成为企业最核心的战略资产,而数据治理则是激活这份资产价值的前提——没有规范、高质量的数据治理 ...
2026-03-03在Excel办公中,数据透视表是汇总、分析繁杂数据的核心工具,我们常常通过它快速得到销售额汇总、人员统计、业绩分析等关键结果 ...
2026-03-02在日常办公和数据分析中,我们常常需要探究两个或多个数据之间的关联关系——比如销售额与广告投入是否正相关、员工出勤率与绩效 ...
2026-03-02在数字化运营中,时间序列数据是CDA(Certified Data Analyst)数据分析师最常接触的数据类型之一——每日的营收、每小时的用户 ...
2026-03-02在日常办公中,数据透视表是Excel、WPS等表格工具中最常用的数据分析利器——它能快速汇总繁杂数据、挖掘数据关联、生成直观报表 ...
2026-02-28有限元法(Finite Element Method, FEM)作为工程数值模拟的核心工具,已广泛应用于机械制造、航空航天、土木工程、生物医学等多 ...
2026-02-28在数字化时代,“以用户为中心”已成为企业运营的核心逻辑,而用户画像则是企业读懂用户、精准服务用户的关键载体。CDA(Certifi ...
2026-02-28在Python面向对象编程(OOP)中,类方法是构建模块化、可复用代码的核心载体,也是实现封装、继承、多态特性的关键工具。无论是 ...
2026-02-27在MySQL数据库优化中,索引是提升查询效率的核心手段—— 面对千万级、亿级数据量,合理创建索引能将查询时间从秒级压缩到毫秒级 ...
2026-02-27在数字化时代,企业积累的海量数据如同散落的珍珠,若缺乏有效的梳理与分类,终将难以发挥实际价值。CDA(Certified Data Analys ...
2026-02-27在问卷调研中,我们常遇到这样的场景:针对同一批调查对象,在不同时间点(如干预前、干预后、随访期)发放相同或相似的问卷,收 ...
2026-02-26在销售管理的实操场景中,“销售机会”是核心抓手—— 从潜在客户接触到最终成交,每一个环节都藏着业绩增长的关键,也暗藏着客 ...
2026-02-26在CDA数据分析师的日常工作中,数据提取、整理、加工是所有分析工作的起点,而“创建表”与“创建视图”,则是数据库操作中最基 ...
2026-02-26在机器学习分析、数据决策的全流程中,“数据质量决定分析价值”早已成为行业共识—— 正如我们此前在运用机器学习进行分析时强 ...
2026-02-25在数字化时代,数据已成为企业决策、行业升级的核心资产,但海量杂乱的原始数据本身不具备价值—— 只有通过科学的分析方法,挖 ...
2026-02-25