Transformer之前是用RNN(recurrent structure). 而 T用自我attention
所有跟帖:
•
输入输出对我来讲,一点意义没有。但是transformer能读懂文章吗?
-avw-
♀
(0 bytes)
()
02/10/2023 postreply
20:42:07
•
可以
-兄贵-
♂
(0 bytes)
()
02/10/2023 postreply
20:46:40
•
这个算是价值。现在Google search好像就找关键词,并不懂文章啊。search出点纰漏,不是丢面子的事吧
-avw-
♀
(0 bytes)
()
02/10/2023 postreply
20:49:11
•
是的。这就是区别所在!
-兄贵-
♂
(0 bytes)
()
02/10/2023 postreply
20:50:49
•
我怀疑啊。不是亲眼所见,我不相信。搞搞前台那种胡说八道,对我来讲,一点意义没有
-avw-
♀
(0 bytes)
()
02/10/2023 postreply
20:53:08