没啥不同的,GPT的算法15年前就有了,现在只是加了个人工加TAG来干预结果而已,
所有跟帖:
•
不是, transformer的paper2017才出,它是chatgpt的基础
-haifengyuan-
♂
(30 bytes)
()
05/22/2023 postreply
10:59:14
•
Transformer只是 generate human-like text, 和回答结果的准确性没啥关系, 包装了一下
-testmobile-
♀
(0 bytes)
()
05/22/2023 postreply
11:02:28
•
这个model训练出来的gpt, 和以前的比,回答的才准确
-haifengyuan-
♂
(0 bytes)
()
05/22/2023 postreply
11:04:59
•
我刚用了 开源的privateGPT, 是基于GPT4的, 和我两年前用GPT2的结果一样
-testmobile-
♀
(0 bytes)
()
05/22/2023 postreply
11:07:02
•
privateGPT用的是SentenceTransformers
-testmobile-
♀
(1184 bytes)
()
05/22/2023 postreply
11:16:29