登录
首页精彩阅读人工智能中神经网络发展缓慢的原因
人工智能中神经网络发展缓慢的原因
2019-03-07
收藏



人工智能是现在十分火热的技术,这是因为人工智能够给我们带来很多的便捷,比如说苹果的Siri、三星的bixby、小米的小爱同学等,这些都给我们的生活中增加了不少的乐趣。而人工智能的核心技术就是机器学习以及深度学习,当然,还涉及到了神经网络的技术。其实这三个技术中,神经网络的技术发展是十分缓慢的,那么到底是为什么呢?下面我们就给大家详细解答一下这个问题。


在上个世纪80年代,通用计算机的出现使得人工神经网络的研究经历了一波复苏。同时,一种算法逐渐成熟,而这个算法就是反向传播。就目前而言,反向传播算法都是训练神经网络的最主要方法。但是,神经网络的规模依然受限于当时的硬件条件而导致规模依然不大。同时,以支持向量机为代表的基于核方法的机器学习技术,表现出了不俗的能力,正是由于这个原因,大量科研人员再一次放弃了神经网络


在发展神经网络的路上,有两个拦路虎,第一就是计算机的性能,第二就是训练数据不够多。正是由于这个原因,使得神经网络在最初的几十年内都没有表现出过人的性能,实际上,其实在很多的实验室中有这在试验和后来深度神经网络类似的结构,其中一个经典的神经网络结构就是现在的LeNet。但是,增加神经网络的深度,就会让神经网络的训练速度变慢。在那个内存不过几十MB,GPU还没有出现的年代,要训练一个小规模的深度神经网络模型,需要花上数周甚至数月。而训练数据不够多也使得神经网络发展受到了阻碍,而随着特征维度的增加,算法的搜索空间急剧变大,要在这样的特征空间中寻找适合的模型,需要大量的训练数据。神经网络要解决的问题,通常具有成千上万维的特征,维度越高,特征也就越多,可以想象,要在如此大的特征中寻找一个模型,需要多少数据,而这个特征空间规模不过是深度学习问题中比较小的。


当然,我们可以通过一个非常有用的先验假设进行简化,这是因为我们这个世界的事物都是通过更小的事物组合而成的。不仅实际的物体满足这一先验假设,抽象的概念也一样如此。因此深度神经网络利用了这一假设,通过将网络层数加深,每一层神经元都是前面一层神经元输出的组合,通过这样的假设,将整个搜索空间大大减小。然而,训练深度神经网络依然需要大量的数据,才能得到一个比较好的结果。所以说,数据的存量是神经网络发展的前提。


在这篇文章中我们给大家介绍了很多关于人工智能中的神经网络发展缓慢的原因,通过这篇文章我们不难发现,科技从0到1的发展是非常艰难的。不过只要突破了这一个障碍,人工智能就能够得到巨大的发展。


数据分析咨询请扫描二维码

客服在线
立即咨询