Transformer的缺点是计算量和建模长度平方级增长,所以各家有很大空间提高改善,看来GPT找到秘籍,谷歌如果还停留

来源: 2023-02-10 21:07:39 [旧帖] [给我悄悄话] 本文已被阅读:

在基础的transformer上,那就很多缺点限制了,那就不行了。