我是30年前涉猎AI,那时LLM(transformer)还没出现。

具体算法日新月异,但基本机理没变。给出(Xi,Yi)训练AI(Ai)收敛到Ai。也就是AI记住了一个(Xi,Yi)case用Ai表达。

ANN神经网络规模越大,记住的点就越多越准确。对于没记住或没见过的点则用各种方法预测。

如回归,推理演绎归纳(如棋类),数理统计(LLM),有可能蒙对,也可能蒙错。

我的浅见是:ANN及规模算力固然重要,但也要重视另一大方向:如何把人类逻辑思维的方法有效结合到AI。

如此AGI才能实现。

请您先登陆,再发跟帖!