2019-07-03
阅读量:
515
Seq2seq模块的工作原理
Seq2seq
最初是由Google推出的用于机器翻译的。在此之前,翻译工作非常天真。您曾经输入的每个单词都被转换为目标语言,不考虑其语法和句子结构。Seq2seq通过深度学习彻底改变了翻译过程。它不仅在翻译时考虑当前的单词/输入,还考虑其邻域。
如今,它被用于各种不同的应用,如图像字幕,会话模型,文本摘要等。
Seq2seq工作:
顾名思义,seq2seq将一系列单词(句子或句子)作为输入,并生成单词的输出序列。它通过使用递归神经网络(RNN)来实现。虽然很少使用RNN的香草版本,但使用更高级的版本,即LSTM或GRU。这是因为RNN存在梯度消失的问题。LSTM用于Google提出的版本。它通过在每个时间点采用2个输入来开发单词的上下文。一个来自用户,另一个来自其先前的输出,因此名称循环(输出作为输入)。






评论(0)


暂无数据
推荐帖子
0条评论
0条评论
0条评论