现在人工智能的应用缺少一门适用于高度复且有杂超级计算能力和海量存储能力之上的指导理论。各人都可以把某一问题的外部环境和前提条件限制得很小,然后想出某种学习模式或计算方法(不管是统计学定律还神经网络等等),其实质还是程序或状态机理论的延伸。
我的想法是,基于图灵机理论的系统不能实现真正的智能,只能为智能提供一个基础的环境或原料。
不知道有么有这种新理论产生,如果你知道,告诉我。
反正那些加点统计学或贝叶斯定律到程序里,有了应对随机性的程序,我认为是过时了几十年的了。我读那些15年前的人工智能的书,就开始说那些,都是些学数学该行的教授。