因为觉得写得好,遂去翻看了系列第5篇。觉得两篇有点矛盾。
(here): Transformer 本质上是“短记忆动物”。它的表示空间天生偏向保留局部模式,
VS
(第五篇:)它既不健忘,也不近视。
能不能再具体说说。这是因为在不同的要求下看问题吗,一个目的是宏观叙事,另一个要追问更多细节?
因为觉得写得好,遂去翻看了系列第5篇。觉得两篇有点矛盾。
(here): Transformer 本质上是“短记忆动物”。它的表示空间天生偏向保留局部模式,
VS
(第五篇:)它既不健忘,也不近视。
能不能再具体说说。这是因为在不同的要求下看问题吗,一个目的是宏观叙事,另一个要追问更多细节?
•
哈 指出的很好 第五集主要想说在TRANSFORMER 同一段输入里,它不会像 RNN 那样因为序列太长而丢掉前面的信息
-挖矿-
♂
(98 bytes)
()
11/26/2025 postreply
08:57:25
•
意思是说以前喂过的东西没有记忆吗?
-trivial-
♀
(164 bytes)
()
11/26/2025 postreply
09:07:33
•
这个属于训练和推理的区别:AI训练时会记住规律 AI在推理时没有以前的记忆
-挖矿-
♂
(0 bytes)
()
11/26/2025 postreply
09:22:22
WENXUECITY.COM does not represent or guarantee the truthfCCPA ulness, accuracy, or reliability of any of communications posted by other users.
Copyright ©1998-2025 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy