Transformer之前是用RNN(recurrent structure). 而 T用自我attention

来源: 兄贵 2023-02-10 20:37:43 [] [博客] [旧帖] [给我悄悄话] 本文已被阅读: 次 (0 bytes)

所有跟帖: 

输入输出对我来讲,一点意义没有。但是transformer能读懂文章吗? -avw- 给 avw 发送悄悄话 (0 bytes) () 02/10/2023 postreply 20:42:07

可以 -兄贵- 给 兄贵 发送悄悄话 兄贵 的博客首页 (0 bytes) () 02/10/2023 postreply 20:46:40

这个算是价值。现在Google search好像就找关键词,并不懂文章啊。search出点纰漏,不是丢面子的事吧 -avw- 给 avw 发送悄悄话 (0 bytes) () 02/10/2023 postreply 20:49:11

是的。这就是区别所在! -兄贵- 给 兄贵 发送悄悄话 兄贵 的博客首页 (0 bytes) () 02/10/2023 postreply 20:50:49

我怀疑啊。不是亲眼所见,我不相信。搞搞前台那种胡说八道,对我来讲,一点意义没有 -avw- 给 avw 发送悄悄话 (0 bytes) () 02/10/2023 postreply 20:53:08

请您先登陆,再发跟帖!

发现Adblock插件

如要继续浏览
请支持本站 请务必在本站关闭/移除任何Adblock

关闭Adblock后 请点击

请参考如何关闭Adblock/Adblock plus

安装Adblock plus用户请点击浏览器图标
选择“Disable on www.wenxuecity.com”

安装Adblock用户请点击图标
选择“don't run on pages on this domain”