其实花点时间学学attention and transformer 并不是难事儿
紫檀对gpt 缺乏了解,一方面极力贬低,另一方面极力追捧
所有跟帖:
•
你看我昨天的问贴没?我就说找大于1000的质数,有啥规律,结果英文版和中文版给出的解释就差很多。
-Pilsung-
♂
(0 bytes)
()
11/27/2023 postreply
09:46:21
•
完全有可能、中英文训练data不一样
-青裁-
♂
(0 bytes)
()
11/27/2023 postreply
10:40:00
•
我诧异这个基本数学问题(学术问题),居然中国和美国差的老远的。都没有一个共识吗?
-Pilsung-
♂
(0 bytes)
()
11/27/2023 postreply
10:44:52