哈 指出的很好 第五集主要想说在TRANSFORMER 同一段输入里,它不会像 RNN 那样因为序列太长而丢掉前面的信息
来源:
挖矿
于
2025-11-26 08:57:25
[
博客
] [
旧帖
] [
给我悄悄话
] 本文已被阅读:次
这种“记忆”,和 AI 没有的那种“记忆”,不是一回事