一个简单的比方,说明LLM是如何回答人类的问题的

不知道你有没有过这种体验:学英语遇到一个冷僻生词,不认识;于是查英英词典,发现它的注释是另外一个更加冷僻的生词,还是不认识。

如果你有超强的记忆能力,记住这两个冷僻生词都是一个意思。等考试的时候,遇到其中一个生词,你就用另外那个生词来解释,于是得了满分;但是你仍然不知道它们的真正意义。

这就是LLM工作原理的最简单粗暴的解释。

所有跟帖: 

这种模型要想万能势必耗掉无穷多的资源, 能源。 否则漏洞不会少。 当然这些卖铲子的赚了, 哈哈 -土无垠- 给 土无垠 发送悄悄话 (0 bytes) () 03/04/2024 postreply 17:57:23

关键是,它只是记住了文字的pattern. 其实根本没有理解能力、更没有推理能力 -pct- 给 pct 发送悄悄话 (0 bytes) () 03/04/2024 postreply 18:00:47

还有Sora, 真的很有用吗? -土无垠- 给 土无垠 发送悄悄话 (0 bytes) () 03/04/2024 postreply 18:01:54

据一个朋友说,很有用 -pct- 给 pct 发送悄悄话 (56 bytes) () 03/04/2024 postreply 18:06:01

如果给Sora 输入一个小说,能出来一个大片质量的电影,那才给力。离这个差远了去了。现在就是一个万金油 -土无垠- 给 土无垠 发送悄悄话 (0 bytes) () 03/04/2024 postreply 18:09:09

我感觉需要导演编剧的能力吧 -yzhl888- 给 yzhl888 发送悄悄话 (0 bytes) () 03/04/2024 postreply 18:24:24

初级AI toy嘛。 -Pilsung- 给 Pilsung 发送悄悄话 (0 bytes) () 03/04/2024 postreply 18:45:30

DL就是深度记忆。ChatGPT-4要学1.76万亿个参数,人脑学习效率是它的一亿倍以上 -成功的三少爷- 给 成功的三少爷 发送悄悄话 (0 bytes) () 03/04/2024 postreply 18:03:47

您把模型参数和简单的记忆存储访问混淆了。 -bagel_bites- 给 bagel_bites 发送悄悄话 (0 bytes) () 03/04/2024 postreply 18:25:05

“大力出奇迹”,GPU就是蛮力, -成功的三少爷- 给 成功的三少爷 发送悄悄话 (0 bytes) () 03/04/2024 postreply 18:00:05

请您先登陆,再发跟帖!