看我上面写的

来源: 风景线2 2024-01-16 14:26:01 [] [旧帖] [给我悄悄话] 本文已被阅读: 次 (0 bytes)
回答: 详细解释一下?俺去反驳小朋友pct2024-01-16 14:15:59

所有跟帖: 

可能这就是LLM需要海量参数的原因 -pct- 给 pct 发送悄悄话 (0 bytes) () 01/16/2024 postreply 14:28:17

大道至简。正是因为需要海量参数,LLM不算真正的AI,只是深度学习、记忆model而已。 -小猪的黄香蕉- 给 小猪的黄香蕉 发送悄悄话 (0 bytes) () 01/16/2024 postreply 14:40:08

真敢瞎说。我说的记忆不是你说的意思,是指上下文。 -风景线2- 给 风景线2 发送悄悄话 (155 bytes) () 01/16/2024 postreply 16:16:48

请您先登陆,再发跟帖!

发现Adblock插件

如要继续浏览
请支持本站 请务必在本站关闭Adblock

关闭Adblock后 请点击

请参考如何关闭Adblock

安装Adblock plus用户请点击浏览器图标
选择“Disable on www.wenxuecity.com”

安装Adblock用户请点击图标
选择“don't run on pages on this domain”