transformer

简介

Transformer由论文《Attention is All You Need》提出,现在是谷歌云TPU推荐的参考模型

模型结构

image-20191030122317551

image-20191030122348929

image-20191030122455561

image-20191030122513992

自注意力作用

  • 帮助编码器对每个单词编码时,可以关注其他单词

decoder

image-20191030122805699

解码器中也有编码器的自注意力(self-attention)层和前馈(feed-forward)层。除此之外,这两个层之间还有一个注意力层,用来关注输入句子的相关部分(和seq2seq模型的注意力作用相似)。

参考网址

打赏一个呗

取消

感谢您的支持,我会继续努力的!

扫码支持
扫码支持
扫码打赏,你说多少就多少

打开支付宝扫一扫,即可进行扫码打赏哦