在基础的transformer上,那就很多缺点限制了,那就不行了。
Transformer的缺点是计算量和建模长度平方级增长,所以各家有很大空间提高改善,看来GPT找到秘籍,谷歌如果还停留
所有跟帖:
•
当然有很多,各家的秘籍,不外泄。例如差的只能处理短句,好的一本书的长度都可以,空间也是各有各法,谷歌未必有
-dujyy262-
♂
(24 bytes)
()
02/10/2023 postreply
21:15:21