京公网安备 11010802034615号
经营许可证编号:京B2-20210330
作者 | Tiernan Ray
编译 | CDA数据分析师
硅谷创业公司Cerebras Systems周一推出了世界上最大的专为AI设计的芯片。Cerebras首席执行官兼联合创始人Andrew Feldman与ZDNet讨论了深度学习网络培训的一些含义。
你可能听说过,周一,硅谷创业公司Cerebras Systems 推出了世界上最大的芯片,称为WSE,或称为“晶圆级发动机”,发音为“明智的”。它将被构建到Cerebras销售的完整计算系统中。
您可能不知道的是,WSE及其制作的系统对AI的深度学习形式有一些有趣的含义,而不仅仅是加速计算。 Cerebras的联合创始人兼首席执行官安德鲁·费尔德曼(Andrew Feldman)与ZDNet讨论了深度学习中可能发生的变化。
到目前为止,我们对WSE的了解有三个直接影响。首先,深度网络的一个重要方面,即“规范化”,可能会得到彻底改革。其次,处理个别数据点而不是群体或“批量”的“稀疏性”概念可能在深度学习中扮演更重要的角色。第三,随着人们开始考虑WSE系统的发展,更多有趣的并行处理形式可能成为迄今为止的情况。
所有这些都代表了费尔德曼所说的硬件解放设计选择和深度学习实验。
Cerebras的“晶圆级引擎”与Nvidia的顶级图形处理单元相比,“V100”在深度学习培训中很
“我们很自豪能够大大加速现有的,开拓性的Hinton,Bengio和LeCun模式,”Feldman说,他指的是三位深度学习先锋,他们因深度学习而获得ACM图灵奖,Geoffrey Hinton,Yoshua Bengio和Yann LeCun。
“但最有趣的是尚未开发的新车型,”他补充道。
“可以训练的模型世界的大小非常大,”费尔德曼观察到,“但在GPU上运行良好的子集非常小,而且到目前为止,事情一直是关注的地方,”指的是Nvidia的图形处理芯片是深度学习培训的主要计算设备。
第一个迹象表明,Cerebras发生了一些非常有趣的事情,5月份由Vitaliy Chiley和Cerebras的同事在arXiv预打印服务器上发布了一篇文章,名为“培训神经网络的在线规范化”。在那篇论文中,作者提出了对机器学习网络建立方式的改变,称为规范化。
归一化是一种处理所有统计系统面临的问题的技术:协变量变换。用于训练统计程序的数据被假定为与训练有素的统计模型将遇到的现实世界中的数据基本相似。分类器在野外遇到的猫和狗的图片应该与训练数据中遇到的图片类似。但是,训练中的自变量,“协变量”和野外实际数据中的自变量之间存在差异。这构成了分配的转变。
谷歌科学家Sergey Ioffe和Christian Szegedy 在2015年的一篇论文中指出协变量转移也发生在网络内部。当每个训练数据点退出网络的一层中的激活单元时,网络参数已经从该数据点进入网络时转换了该数据点。结果,数据的分布由网络的连续层转换 - 以至于它变得与训练数据的原始统计数据不同。这可能导致网络培训不良。
Ioffe和Szegedy称这种变化是“内部协变量转变”。为了解决这个问题,他们提出了所谓的“批量标准化”。在批量规范中,如已知的那样,将新的处理层插入到网络中。它使用的事实是,数据样本在所谓的“小批量”处理,同时由芯片处理的几个数据样本的分组。芯片统计批次,均值和方差,尤其是整个数据集中统计数据的近似值。然后,它将单个数据点的值调整为更符合这些批次统计数据,作为一种方法,将样本轻推回与人口的“真实”分布一致。
批量规范在加快培训时间方面具有优势,但存在问题。首先,它可以显着增加计算系统中使用的内存。另一方面,它可能会在数据中引入偏差,因为用于计算均值和方差的小批量样本不一定是整个群体中数据分布的很大近似值。当受过训练的网络遇到真实世界数据时,这可能意味着问题,另一个协变量变化。多年来提出了许多后续方法来改进,例如“层规范化”,“组规范化”,“权重规范化”,甚至“重新规范化”。
现在,Cerebras的团队决定提出替代方案。Cerebras科学家不是使用批次,而是建议跟踪单个样本,并“将整个数据集上的算术平均值替换为在线样本的指数衰减平均值。” 该过程在下图中的网络图中说明。在对ImageNet等的测试中,作者认为在线规范化“与大规模网络的最佳规范化器竞争性地发挥作用”。(ZDNet向Google的Ioffe发表了评论,但他拒绝发表评论。)
Vitaliy Chiley及其同事在Cerebras提出的“在线标准化”图表,作为批量标准化的替代
WSE不会自动关闭批量规范; 它是一个可以在处理器中设置的标志。WSE旨在运行在TensorFlow或PyTorch和其他框架中创建的任何现有神经网络,并且它将适应批处理规范。
虽然仅仅是WSE芯片的一个选项,但在线标准化指出了一种可能的方式,即远离费尔德曼多年来用神奇网络来哄骗神经网络以取悦Nvidia等图形处理器。
费尔德曼说:“问题一直受到攻击的方式已经聚集在他们周围,一整套密封蜡和绳子以及纠正弱点的方法很少。” “他们似乎几乎要求你按照GPU让你工作的方式工作。”
Feldman指出批量是GPU的并行处理形式的工件。“想想为什么大批量出现在一开始,”他说。“神经网络中的基本数学是一个向量乘以矩阵。” 但是,“如果你这样做,它会使GPU的利用率非常低,比如几个百分点的利用,这真的很糟糕。”
因此,建议使用批处理来填充GPU的操作流程。“他们所做的是他们将矢量叠加在一起,形成一个矩阵逐个矩阵,这些矢量的叠加就是所谓的小批量。”
所有这些意味着批处理“不是由机器学习理论驱动的,它们是由实现GPU的一些利用的需要驱动的;我们将神经网络思维弯曲到非常特定的硬件架构的需求,但是那是落后的。“
“我们最兴奋的事情之一是,WSE允许你深入学习深度学习的方式,而不是在特定的架构中进行深入学习,”费尔德曼说。
WSE适用于所谓的小批量,或者实际上是“批量大小”。WSE没有通过每个可用电路干扰大量样本,而是具有硬连线电路,该电路仅在检测到具有非零值的单个样本时才开始计算。
Cerebras Systems联合创始人兼首席执行官Andrew Feldman,蒂尔南雷
费尔德曼认为,对稀疏信号的关注是对运行多个样本的“数据并行性”的谴责,这再次是GPU的时代错误。“数据并行意味着您的个人指令将同时应用于多个数据,包括它们是否为0,如果它们永远不是零,则是完美的,如图形中所示。 “但是当高达80%为零时,就像神经网络一样,它根本不聪明 - 这并不明智。” 他指出,在普通神经网络中,人工神经元最常见的激活单元“ReLU”具有“80%零作为输出”。
能够处理稀疏信号似乎是深度学习的重要方向。在2月举行的筹码会议上,Facebook负责人工智能研究的负责人Yann LeCun指出,“随着DL系统规模的扩大,模块的激活可能会变得越来越稀疏,只有任何一次激活的模块子集的变量子集。“
LeCun认为,这更接近大脑的运作方式。“不幸的是,使用当前的硬件,批处理使我们能够将大多数低级神经网络操作减少到矩阵产品,从而降低内存访问计算比率,”他说,与Feldman呼应。
“因此,我们需要新的硬件架构,这些架构可以在批量大小为1的情况下高效运行。”
如果GPU的传统数据并行性不是最优的,Feldman认为WSE使得并行处理的复兴成为可能。特别是,可以探索另一种并行性,称为“模型并行性”,其中深度学习的网络图的单独部分被分配到芯片的不同区域并且并行运行。
“更有趣的是分割工作,以便你的400,000个核心中的一些在一个层上工作,一些在下一层上工作,一些在第三层上工作,依此类推,以便所有层都在工作中平行,“他沉思道。他说,其中一个影响就是大大增加了神经网络可以处理的参数状态的大小。根据GPU的数据并行性,任何一个GPU都可能能够处理一百万个参数。“如果你把两个GPU放在一起[在多处理系统中],你会得到两台可以处理一百万个参数的机器,”他解释说,“但是没有一台可以处理200万个参数的机器 - 你没有得到一个双。”
使用单个WSE,可以支持40亿个参数模型。他建议将机器集中在一起,“你现在可以解决80亿或160亿参数网络,因此它可以让你通过增加资源来解决更大的问题。”
费尔德曼认为像稀疏性和模型并行性这样的东西采用的神经网络“超出了创始人20或30年前给我们的意义”,意思是,Hinton,Bengio和Lecun。现代网络,如谷歌的“变形金刚”,他说,已经“在他们的TPU集群中考虑大量计算”,指的是谷歌开发的“Tensor Processing Unit”芯片。
“硬件正在扭曲我们行业的进步,”他是如何总结最先进的。“当硬件的局限性使我们无法探索肥沃的区域时,这就是我们想要改变的东西;硬件不应该妨碍你的探索,它不应该驱使你采用一些技术,如大批量。
“硬件应该成为你的思维能够形成的平台。”
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在机器学习建模体系中,随机森林作为集成学习的经典算法,凭借高精度、抗过拟合、适配多场景、可解释性强的核心优势,成为分类、 ...
2026-03-12在机器学习建模过程中,“哪些特征对预测结果影响最大?”“如何筛选核心特征、剔除冗余信息?”是从业者最常面临的核心问题。随 ...
2026-03-12在数字化转型深度渗透的今天,企业管理已从“经验驱动”全面转向“数据驱动”,数据思维成为企业高质量发展的核心竞争力,而CDA ...
2026-03-12在数字经济飞速发展的今天,数据分析已从“辅助工具”升级为“核心竞争力”,渗透到商业、科技、民生、金融等各个领域。无论是全 ...
2026-03-11上市公司财务报表是反映企业经营状况、盈利能力、偿债能力的核心数据载体,是投资者决策、研究者分析、从业者复盘的重要依据。16 ...
2026-03-11数字化浪潮下,数据已成为企业生存发展的核心资产,而数据思维,正是CDA(Certified Data Analyst)数据分析师解锁数据价值、赋 ...
2026-03-11线性回归是数据分析中最常用的预测与关联分析方法,广泛应用于销售额预测、风险评估、趋势分析等场景(如前文销售额预测中的多元 ...
2026-03-10在SQL Server安装与配置的实操中,“服务名无效”是最令初学者头疼的高频问题之一。无论是在命令行执行net start启动服务、通过S ...
2026-03-10在数据驱动业务的当下,CDA(Certified Data Analyst)数据分析师的核心价值,不仅在于解读数据,更在于搭建一套科学、可落地的 ...
2026-03-10在企业经营决策中,销售额预测是核心环节之一——无论是库存备货、营销预算制定、产能规划,还是战略布局,都需要基于精准的销售 ...
2026-03-09金融数据分析的核心价值,是通过挖掘数据规律、识别风险、捕捉机会,为投资决策、风险控制、业务优化提供精准支撑——而这一切的 ...
2026-03-09在数据驱动决策的时代,CDA(Certified Data Analyst)数据分析师的核心工作,是通过数据解读业务、支撑决策,而指标与指标体系 ...
2026-03-09在数据处理的全流程中,数据呈现与数据分析是两个紧密关联却截然不同的核心环节。无论是科研数据整理、企业业务复盘,还是日常数 ...
2026-03-06在数据分析、数据预处理场景中,dat文件是一种常见的二进制或文本格式数据文件,广泛应用于科研数据、工程数据、传感器数据等领 ...
2026-03-06在数据驱动决策的时代,CDA(Certified Data Analyst)数据分析师的核心价值,早已超越单纯的数据清洗与统计分析,而是通过数据 ...
2026-03-06在教学管理、培训数据统计、课程体系搭建等场景中,经常需要对课时数据进行排序并实现累加计算——比如,按课程章节排序,累加各 ...
2026-03-05在数据分析场景中,环比是衡量数据短期波动的核心指标——它通过对比“当前周期与上一个相邻周期”的数据,直观反映指标的月度、 ...
2026-03-05数据治理是数字化时代企业实现数据价值最大化的核心前提,而CDA(Certified Data Analyst)数据分析师作为数据全生命周期的核心 ...
2026-03-05在实验检测、质量控制、科研验证等场景中,“方法验证”是确保检测/分析结果可靠、可复用的核心环节——无论是新开发的检测方法 ...
2026-03-04在数据分析、科研实验、办公统计等场景中,我们常常需要对比两组数据的整体差异——比如两种营销策略的销售额差异、两种实验方案 ...
2026-03-04