AI核心之一的transformer和self attention,是几十年前的理论嘛?
看来你比较懂,那请直接回复一下
回答: are you serious?为啥不能?我秋天一篇会议论文,你可以查一下,说不定你能搜得出来。谷歌一帮人做了类似的比较
由 newbiestock
于 2025-08-23 19:52:16
所有跟帖:
•
在回答一次,不是和是。transformer不是突破性的,只是在2015年的基础上改的;2015年的是不是突破性的,自己
-newbiestock-
♂
(119 bytes)
()
08/23/2025 postreply
20:16:34