听过LLM的讲座。准确说不是hallucinations,而是predictive error。LLM是一个

predictive model。一句话的每下一个字都是预测出来的,预测就不能保证100%accuracy。所以有时候会乱说。

meta为了提高准确性,推出concept model。就是先界定说什么范畴,再决定怎么说。不知道implement 没有。

我是外行,只听了这些皮毛。这也是半年前的讲座了。现在日新月异,可能又有许多更新了。

所有跟帖: 

基于统计的智能。 -肖庄- 给 肖庄 发送悄悄话 肖庄 的博客首页 (0 bytes) () 11/25/2025 postreply 10:04:49

简单地说 -京男- 给 京男 发送悄悄话 京男 的博客首页 (179 bytes) () 11/25/2025 postreply 10:09:06

请您先登陆,再发跟帖!