2018-12-28
阅读量:
815
机器学习中的seq2seq模型
Seq2seq
最初是由Google推出的用于机器翻译的。在此之前,翻译工作非常天真。您以前键入的每个单词都转换为其目标语言,不考虑其语法和句子结构。Seq2seq通过深度学习彻底改变了翻译过程。它不仅在翻译时考虑当前的单词/输入,还考虑其邻域。
如今,它被用于各种不同的应用,如图像字幕,会话模型,文本摘要等。
Seq2seq工作:
顾名思义,seq2seq将一系列单词(句子或句子)作为输入,并生成单词的输出序列。它通过使用递归神经网络(RNN)来实现。虽然很少使用RNN的香草版本,但使用更高级的版本,即LSTM或GRU。这是因为RNN存在梯度消失的问题。LSTM用于Google提出的版本。它通过在每个时间点获取2个输入来开发单词的上下文。一个来自用户,另一个来自其先前的输出,因此名称重复出现(输出作为输入)。
它主要有两个组件,即编码器和解码器,因此有时它被称为编码器 - 解码器网络。






评论(0)


暂无数据
推荐帖子
0条评论
0条评论
0条评论