不能是成熟的现成的东西。比如1+2,显然AI直接调用计算函数给结果。其实数学软件已经能直接计算不定积分。
我觉得AI应该是建造了一个巨大硕大的仓库,现成的结论或者解决方案就像是built in的函数一样
并且每个东西的标签很复杂,尽可能做到只要沾边就能扯上关系
其次不能是模糊的东西。比如说文字,同一个意思很容易写出来多种表达,这就是为什么OpenAI决定搞ChatGPT 的原因。明确的对错才能看清是否碰瓷。
我找到的例子就是阳历(公历)和阴历(农历)的对照。
这东西是确定的,精确的,但是从试验来看显然对美国的AI来说比较生僻,他们没有放入精确对应的库里面。
昨天晚上我问春节跟情人节重合,x.ai很快给出答案,但是ChatGPT 第一时间彻底在扯淡。
后来换了一个非典型日期,x.ai也开始扯淡了。我估计是因为春节还是太特殊了,很容易搜索到日期。
其实AI很容易就能找到万年历,我试验过就算是查100年内手动也就是不到2分钟,每年一秒钟都用不了
但是可能对他来说阴历是个过于陌生的东西,即使他能找到万年历也枉然。所以他们搜索到了万年历还是继续瞎搞,因为他不具备推理和思维。
而且这个问题有意思在于,很明显他知道春节对应的是哪天,所以别问正月某日,因为比如正月十五一定是春节开始第15天,他不会错。
但是问他腊月就错误百出了。因为比如春节是2月1日,但是1月31日可能是腊月30,也可能是腊月29。
就是这么简单的问题,充分说明所谓的AI智能只是搜索抄袭拼凑加碰瓷。显然如果它把阴历也像阳历一样搞到系统里,几乎就是built in函数,肯定就毫无问题了。但是这不是学习,是人类给他灌进去的。其实都是提前灌好了内容和套路。
这事儿就像是下棋。如果问题是在提前灌输的棋盘范围内并且棋规固定,那AI就是神,人类无论多优秀的棋手也下不过。但是一旦出了棋盘或者违反了棋规,AI只能还是在棋盘内搜索拼凑去碰瓷。