2017年, tranformer出现, 接下来的几年, 它的性能一直不到饱和趋势, 大概是今年开始, 似乎开始出现饱和趋势。也许是坏消息? 看您怎么看了。
这里倒有个好消息
所有跟帖:
•
应该是好事。旧的不去,新的不来。Transformer方法,出道即巅峰,短短几年,就成为几乎所有AI大模型的基础。
-泥川-
♂
(0 bytes)
()
06/20/2024 postreply
16:52:55
•
能力到了上限,才会想到用新方法取代。按Yann LeCun的说法,自回归大型语言模型注定会失败,所以需要新模型。
-泥川-
♂
(0 bytes)
()
06/20/2024 postreply
16:54:51