戴榕菁
按照目前人们对于人工智能和机器人发展的各种分类法来看,人类发展人工智能和机器人的最高目标就是机器人不但能够感受人的情感并具有象人类一样的思维能力,更在很多方面远远超过人类。与此同时,人工智能和机器人专家们又对那样的机器人是否会对人类的生存造成威胁有所争议。也就是说在机器人发展的最终目标上大家的意见是一致的,但是在机器人是否最终会威胁人类这方面是有争议的。更重要的是,在机器人是否有危险这方面,目前来说,担心的声音是微弱的,而认为不会有威胁的声音是强大的。
这再一次表现出人类的哲学思维并不总是与智商成正比,因而科学家还是离不开哲学。
应该说人工智能和机器人专家们都是高智商人士,但是遗憾的是,在上述这个问题上他们却似乎看不出其中最简单的逻辑悖论来。这里的悖论内容如下:
如果机器人能够感受人类的情感并象人类一样的思维,那么它就会具有象人类一样的判别种类的能力及排斥他类的特性。因此,机器人一定会发现它们与人类不是一类,并会因此而产生掌控及排斥人类的意图。当它们的生存不再依赖于人类并具有自我复制能力的时候,如果它们的能力已经如人工智能及机器人科学家们所期待的那样远超过人类,那么它们就会产生排斥甚至毁灭与它们不同类的人类的意识。
这里我就将上述悖论称为机器人第一悖论。之所以称之为悖论,一方面因为人类制造终极机器人的目标其实是蕴含着毁灭人类自身的逻辑,另一方面因为相关的科学家们在这方面的思维上有着明显的自相矛盾:既要机器人象人一样,又期待着未来的高等机器人不会象人类对待其它族类那样地对待人类。之所以称之为第一悖论,一方面因为它直接涉及到人类的生存与机器人发展的关系,也因为它是一个非常明显的简单悖论。
更多我的博客文章>>>