不是, transformer的paper2017才出,它是chatgpt的基础

来源: haifengyuan 2023-05-22 10:59:14 [] [旧帖] [给我悄悄话] 本文已被阅读: 次 (30 bytes)
本文内容已被 [ haifengyuan ] 在 2023-05-22 11:00:08 编辑过。如有问题,请报告版主或论坛管理删除.

当然研究早就有

所有跟帖: 

Transformer只是 generate human-like text, 和回答结果的准确性没啥关系, 包装了一下 -testmobile- 给 testmobile 发送悄悄话 (0 bytes) () 05/22/2023 postreply 11:02:28

这个model训练出来的gpt, 和以前的比,回答的才准确 -haifengyuan- 给 haifengyuan 发送悄悄话 (0 bytes) () 05/22/2023 postreply 11:04:59

我刚用了 开源的privateGPT, 是基于GPT4的, 和我两年前用GPT2的结果一样 -testmobile- 给 testmobile 发送悄悄话 (0 bytes) () 05/22/2023 postreply 11:07:02

privateGPT用的是SentenceTransformers -testmobile- 给 testmobile 发送悄悄话 (1184 bytes) () 05/22/2023 postreply 11:16:29

请您先登陆,再发跟帖!

发现Adblock插件

如要继续浏览
请支持本站 请务必在本站关闭/移除任何Adblock

关闭Adblock后 请点击

请参考如何关闭Adblock/Adblock plus

安装Adblock plus用户请点击浏览器图标
选择“Disable on www.wenxuecity.com”

安装Adblock用户请点击图标
选择“don't run on pages on this domain”