热线电话:13121318867

登录
2019-07-03 阅读量: 515
Seq2seq模块的工作原理

Seq2seq 最初是由Google推出的用于机器翻译的。在此之前,翻译工作非常天真。您曾经输入的每个单词都被转换为目标语言,不考虑其语法和句子结构。Seq2seq通过深度学习彻底改变了翻译过程。它不仅在翻译时考虑当前的单词/输入,还考虑其邻域。

如今,它被用于各种不同的应用,如图像字幕,会话模型,文本摘要等。

Seq2seq工作:
顾名思义,seq2seq将一系列单词(句子或句子)作为输入,并生成单词的输出序列。它通过使用递归神经网络(RNN)来实现。虽然很少使用RNN的香草版本,但使用更高级的版本,即LSTM或GRU。这是因为RNN存在梯度消失的问题。LSTM用于Google提出的版本。它通过在每个时间点采用2个输入来开发单词的上下文。一个来自用户,另一个来自其先前的输出,因此名称循环(输出作为输入)。

0.0000
1
关注作者
收藏
评论(0)

发表评论

暂无数据
推荐帖子