Transformer之前是用RNN(recurrent structure). 而 T用自我attention

所有跟帖: 

可以 -兄贵- 给 兄贵 发送悄悄话 兄贵 的博客首页 (0 bytes) () 02/10/2023 postreply 20:46:40

是的。这就是区别所在! -兄贵- 给 兄贵 发送悄悄话 兄贵 的博客首页 (0 bytes) () 02/10/2023 postreply 20:50:49

请您先登陆,再发跟帖!