详细解释一下?俺去反驳小朋友
所有跟帖:
• 看我上面写的 -风景线2- ♀ (0 bytes) () 01/16/2024 postreply 14:26:01
• 可能这就是LLM需要海量参数的原因 -pct- ♂ (0 bytes) () 01/16/2024 postreply 14:28:17
• 大道至简。正是因为需要海量参数,LLM不算真正的AI,只是深度学习、记忆model而已。 -小猪的黄香蕉- ♂ (0 bytes) () 01/16/2024 postreply 14:40:08
• 真敢瞎说。我说的记忆不是你说的意思,是指上下文。 -风景线2- ♀ (155 bytes) () 01/16/2024 postreply 16:16:48