
作者 | Tiernan Ray
编译 | CDA数据分析师
硅谷创业公司Cerebras Systems周一推出了世界上最大的专为AI设计的芯片。Cerebras首席执行官兼联合创始人Andrew Feldman与ZDNet讨论了深度学习网络培训的一些含义。
你可能听说过,周一,硅谷创业公司Cerebras Systems 推出了世界上最大的芯片,称为WSE,或称为“晶圆级发动机”,发音为“明智的”。它将被构建到Cerebras销售的完整计算系统中。
您可能不知道的是,WSE及其制作的系统对AI的深度学习形式有一些有趣的含义,而不仅仅是加速计算。 Cerebras的联合创始人兼首席执行官安德鲁·费尔德曼(Andrew Feldman)与ZDNet讨论了深度学习中可能发生的变化。
到目前为止,我们对WSE的了解有三个直接影响。首先,深度网络的一个重要方面,即“规范化”,可能会得到彻底改革。其次,处理个别数据点而不是群体或“批量”的“稀疏性”概念可能在深度学习中扮演更重要的角色。第三,随着人们开始考虑WSE系统的发展,更多有趣的并行处理形式可能成为迄今为止的情况。
所有这些都代表了费尔德曼所说的硬件解放设计选择和深度学习实验。
Cerebras的“晶圆级引擎”与Nvidia的顶级图形处理单元相比,“V100”在深度学习培训中很
“我们很自豪能够大大加速现有的,开拓性的Hinton,Bengio和LeCun模式,”Feldman说,他指的是三位深度学习先锋,他们因深度学习而获得ACM图灵奖,Geoffrey Hinton,Yoshua Bengio和Yann LeCun。
“但最有趣的是尚未开发的新车型,”他补充道。
“可以训练的模型世界的大小非常大,”费尔德曼观察到,“但在GPU上运行良好的子集非常小,而且到目前为止,事情一直是关注的地方,”指的是Nvidia的图形处理芯片是深度学习培训的主要计算设备。
第一个迹象表明,Cerebras发生了一些非常有趣的事情,5月份由Vitaliy Chiley和Cerebras的同事在arXiv预打印服务器上发布了一篇文章,名为“培训神经网络的在线规范化”。在那篇论文中,作者提出了对机器学习网络建立方式的改变,称为规范化。
归一化是一种处理所有统计系统面临的问题的技术:协变量变换。用于训练统计程序的数据被假定为与训练有素的统计模型将遇到的现实世界中的数据基本相似。分类器在野外遇到的猫和狗的图片应该与训练数据中遇到的图片类似。但是,训练中的自变量,“协变量”和野外实际数据中的自变量之间存在差异。这构成了分配的转变。
谷歌科学家Sergey Ioffe和Christian Szegedy 在2015年的一篇论文中指出协变量转移也发生在网络内部。当每个训练数据点退出网络的一层中的激活单元时,网络参数已经从该数据点进入网络时转换了该数据点。结果,数据的分布由网络的连续层转换 - 以至于它变得与训练数据的原始统计数据不同。这可能导致网络培训不良。
Ioffe和Szegedy称这种变化是“内部协变量转变”。为了解决这个问题,他们提出了所谓的“批量标准化”。在批量规范中,如已知的那样,将新的处理层插入到网络中。它使用的事实是,数据样本在所谓的“小批量”处理,同时由芯片处理的几个数据样本的分组。芯片统计批次,均值和方差,尤其是整个数据集中统计数据的近似值。然后,它将单个数据点的值调整为更符合这些批次统计数据,作为一种方法,将样本轻推回与人口的“真实”分布一致。
批量规范在加快培训时间方面具有优势,但存在问题。首先,它可以显着增加计算系统中使用的内存。另一方面,它可能会在数据中引入偏差,因为用于计算均值和方差的小批量样本不一定是整个群体中数据分布的很大近似值。当受过训练的网络遇到真实世界数据时,这可能意味着问题,另一个协变量变化。多年来提出了许多后续方法来改进,例如“层规范化”,“组规范化”,“权重规范化”,甚至“重新规范化”。
现在,Cerebras的团队决定提出替代方案。Cerebras科学家不是使用批次,而是建议跟踪单个样本,并“将整个数据集上的算术平均值替换为在线样本的指数衰减平均值。” 该过程在下图中的网络图中说明。在对ImageNet等的测试中,作者认为在线规范化“与大规模网络的最佳规范化器竞争性地发挥作用”。(ZDNet向Google的Ioffe发表了评论,但他拒绝发表评论。)
Vitaliy Chiley及其同事在Cerebras提出的“在线标准化”图表,作为批量标准化的替代
WSE不会自动关闭批量规范; 它是一个可以在处理器中设置的标志。WSE旨在运行在TensorFlow或PyTorch和其他框架中创建的任何现有神经网络,并且它将适应批处理规范。
虽然仅仅是WSE芯片的一个选项,但在线标准化指出了一种可能的方式,即远离费尔德曼多年来用神奇网络来哄骗神经网络以取悦Nvidia等图形处理器。
费尔德曼说:“问题一直受到攻击的方式已经聚集在他们周围,一整套密封蜡和绳子以及纠正弱点的方法很少。” “他们似乎几乎要求你按照GPU让你工作的方式工作。”
Feldman指出批量是GPU的并行处理形式的工件。“想想为什么大批量出现在一开始,”他说。“神经网络中的基本数学是一个向量乘以矩阵。” 但是,“如果你这样做,它会使GPU的利用率非常低,比如几个百分点的利用,这真的很糟糕。”
因此,建议使用批处理来填充GPU的操作流程。“他们所做的是他们将矢量叠加在一起,形成一个矩阵逐个矩阵,这些矢量的叠加就是所谓的小批量。”
所有这些意味着批处理“不是由机器学习理论驱动的,它们是由实现GPU的一些利用的需要驱动的;我们将神经网络思维弯曲到非常特定的硬件架构的需求,但是那是落后的。“
“我们最兴奋的事情之一是,WSE允许你深入学习深度学习的方式,而不是在特定的架构中进行深入学习,”费尔德曼说。
WSE适用于所谓的小批量,或者实际上是“批量大小”。WSE没有通过每个可用电路干扰大量样本,而是具有硬连线电路,该电路仅在检测到具有非零值的单个样本时才开始计算。
Cerebras Systems联合创始人兼首席执行官Andrew Feldman,蒂尔南雷
费尔德曼认为,对稀疏信号的关注是对运行多个样本的“数据并行性”的谴责,这再次是GPU的时代错误。“数据并行意味着您的个人指令将同时应用于多个数据,包括它们是否为0,如果它们永远不是零,则是完美的,如图形中所示。 “但是当高达80%为零时,就像神经网络一样,它根本不聪明 - 这并不明智。” 他指出,在普通神经网络中,人工神经元最常见的激活单元“ReLU”具有“80%零作为输出”。
能够处理稀疏信号似乎是深度学习的重要方向。在2月举行的筹码会议上,Facebook负责人工智能研究的负责人Yann LeCun指出,“随着DL系统规模的扩大,模块的激活可能会变得越来越稀疏,只有任何一次激活的模块子集的变量子集。“
LeCun认为,这更接近大脑的运作方式。“不幸的是,使用当前的硬件,批处理使我们能够将大多数低级神经网络操作减少到矩阵产品,从而降低内存访问计算比率,”他说,与Feldman呼应。
“因此,我们需要新的硬件架构,这些架构可以在批量大小为1的情况下高效运行。”
如果GPU的传统数据并行性不是最优的,Feldman认为WSE使得并行处理的复兴成为可能。特别是,可以探索另一种并行性,称为“模型并行性”,其中深度学习的网络图的单独部分被分配到芯片的不同区域并且并行运行。
“更有趣的是分割工作,以便你的400,000个核心中的一些在一个层上工作,一些在下一层上工作,一些在第三层上工作,依此类推,以便所有层都在工作中平行,“他沉思道。他说,其中一个影响就是大大增加了神经网络可以处理的参数状态的大小。根据GPU的数据并行性,任何一个GPU都可能能够处理一百万个参数。“如果你把两个GPU放在一起[在多处理系统中],你会得到两台可以处理一百万个参数的机器,”他解释说,“但是没有一台可以处理200万个参数的机器 - 你没有得到一个双。”
使用单个WSE,可以支持40亿个参数模型。他建议将机器集中在一起,“你现在可以解决80亿或160亿参数网络,因此它可以让你通过增加资源来解决更大的问题。”
费尔德曼认为像稀疏性和模型并行性这样的东西采用的神经网络“超出了创始人20或30年前给我们的意义”,意思是,Hinton,Bengio和Lecun。现代网络,如谷歌的“变形金刚”,他说,已经“在他们的TPU集群中考虑大量计算”,指的是谷歌开发的“Tensor Processing Unit”芯片。
“硬件正在扭曲我们行业的进步,”他是如何总结最先进的。“当硬件的局限性使我们无法探索肥沃的区域时,这就是我们想要改变的东西;硬件不应该妨碍你的探索,它不应该驱使你采用一些技术,如大批量。
“硬件应该成为你的思维能够形成的平台。”
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
随机森林算法的核心特点:原理、优势与应用解析 在机器学习领域,随机森林(Random Forest)作为集成学习(Ensemble Learning) ...
2025-09-05Excel 区域名定义:从基础到进阶的高效应用指南 在 Excel 数据处理中,频繁引用单元格区域(如A2:A100、B3:D20)不仅容易出错, ...
2025-09-05CDA 数据分析师:以六大分析方法构建数据驱动业务的核心能力 在数据驱动决策成为企业共识的当下,CDA(Certified Data Analyst) ...
2025-09-05SQL 日期截取:从基础方法到业务实战的全维度解析 在数据处理与业务分析中,日期数据是连接 “业务行为” 与 “时间维度” 的核 ...
2025-09-04在卷积神经网络(CNN)的发展历程中,解决 “梯度消失”“特征复用不足”“模型参数冗余” 一直是核心命题。2017 年提出的密集连 ...
2025-09-04CDA 数据分析师:驾驭数据范式,释放数据价值 在数字化转型浪潮席卷全球的当下,数据已成为企业核心生产要素。而 CDA(Certified ...
2025-09-04K-Means 聚类:无监督学习中数据分群的核心算法 在数据分析领域,当我们面对海量无标签数据(如用户行为记录、商品属性数据、图 ...
2025-09-03特征值、特征向量与主成分:数据降维背后的线性代数逻辑 在机器学习、数据分析与信号处理领域,“降维” 是破解高维数据复杂性的 ...
2025-09-03CDA 数据分析师与数据分析:解锁数据价值的关键 在数字经济高速发展的今天,数据已成为企业核心资产与社会发展的重要驱动力。无 ...
2025-09-03解析 loss.backward ():深度学习中梯度汇总与同步的自动触发核心 在深度学习模型训练流程中,loss.backward()是连接 “前向计算 ...
2025-09-02要解答 “画 K-S 图时横轴是等距还是等频” 的问题,需先明确 K-S 图的核心用途(检验样本分布与理论分布的一致性),再结合横轴 ...
2025-09-02CDA 数据分析师:助力企业破解数据需求与数据分析需求难题 在数字化浪潮席卷全球的当下,数据已成为企业核心战略资产。无论是市 ...
2025-09-02Power BI 度量值实战:基于每月收入与税金占比计算累计税金分摊金额 在企业财务分析中,税金分摊是成本核算与利润统计的核心环节 ...
2025-09-01巧用 ALTER TABLE rent ADD INDEX:租房系统数据库性能优化实践 在租房管理系统中,rent表是核心业务表之一,通常存储租赁订单信 ...
2025-09-01CDA 数据分析师:企业数字化转型的核心引擎 —— 从能力落地到价值跃迁 当数字化转型从 “选择题” 变为企业生存的 “必答题”, ...
2025-09-01数据清洗工具全景指南:从入门到进阶的实操路径 在数据驱动决策的链条中,“数据清洗” 是决定后续分析与建模有效性的 “第一道 ...
2025-08-29机器学习中的参数优化:以预测结果为核心的闭环调优路径 在机器学习模型落地中,“参数” 是连接 “数据” 与 “预测结果” 的关 ...
2025-08-29CDA 数据分析与量化策略分析流程:协同落地数据驱动价值 在数据驱动决策的实践中,“流程” 是确保价值落地的核心骨架 ——CDA ...
2025-08-29CDA含金量分析 在数字经济与人工智能深度融合的时代,数据驱动决策已成为企业核心竞争力的关键要素。CDA(Certified Data Analys ...
2025-08-28CDA认证:数据时代的职业通行证 当海通证券的交易大厅里闪烁的屏幕实时跳动着市场数据,当苏州银行的数字金融部连夜部署新的风控 ...
2025-08-28