汉语自然语言处理-从零解读碾压循环神经网络的transformer模型(一)-注意力机制-位置编码-attention is all you need

[复制链接]
toufashile 发表于 2020-11-8 06:40:03 | 显示全部楼层 |阅读模式
来源:https://www.bilibili.com/video/av58239477
若内容不全,可点击上述链接查看来源网页,在网页中点击红色双层向下的箭头阅读全文


由于transformer模型的结构比较特殊, 所以一下理解不好很正常, 不过经过仔细思考和体会的话, 理解应该不是问题,
视频里有一点表达的不到位, attention机制其实使用这句话中所有字来表达句子中的一个字, 看注意力机制的时候请...