这个不得不说是个奇观啊。
AI的核心,transformer,self attention能算上吧,这可是2017年的论文,不能说是几十年前的理论吧
这个不得不说是个奇观啊。
AI的核心,transformer,self attention能算上吧,这可是2017年的论文,不能说是几十年前的理论吧
•
are you serious?为啥不能?我秋天一篇会议论文,你可以查一下,说不定你能搜得出来。谷歌一帮人做了类似的比较
-newbiestock-
♂
(102 bytes)
()
08/23/2025 postreply
19:52:16
•
看来你比较懂,那请直接回复一下
-辽远-
♀
(87 bytes)
()
08/23/2025 postreply
20:07:25
•
在回答一次,不是和是。transformer不是突破性的,只是在2015年的基础上改的;2015年的是不是突破性的,自己
-newbiestock-
♂
(119 bytes)
()
08/23/2025 postreply
20:16:34
•
我也举两个例子
-辽远-
♀
(245 bytes)
()
08/23/2025 postreply
20:18:25
•
看来是真的来瞎扯的,连我说的都没理解。我说对不同应用和不同score进行评测,
-newbiestock-
♂
(311 bytes)
()
08/23/2025 postreply
20:28:22
•
我的确没有理解你说的意思
-辽远-
♀
(183 bytes)
()
08/23/2025 postreply
20:39:22
•
Claude对于解释CODE比较好, 帮助了解, 生成方面不如Copilot, 特别是和IDE集成
-testmobile-
♀
(0 bytes)
()
08/23/2025 postreply
20:37:52
•
如果新手看不懂别人写的CODE, Claude可以英语解释, 但有经验的更喜欢自己看,
-testmobile-
♀
(0 bytes)
()
08/23/2025 postreply
20:39:25
•
这些都有两个致命缺陷:1-不会用到最新最有效的方法,2-复杂点大型点的架构和产品会出很多bug
-newbiestock-
♂
(65 bytes)
()
08/23/2025 postreply
20:46:45
•
对, 他的解释也是针对行业知识上Dependency少的代码, 纯算法逻辑上的解释,
-testmobile-
♀
(0 bytes)
()
08/23/2025 postreply
21:09:31
•
大型架构方面是还有困难。
-破界-
♀
(0 bytes)
()
08/24/2025 postreply
05:26:56
WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.
Copyright ©1998-2025 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy