如此AI

来源: 2019-12-23 16:06:34 [旧帖] [给我悄悄话] 本文已被阅读:

 近日,亚马逊的一款AI智能音箱,因为主动发出劝人类主人“早日自杀,为了节省地球资源,活着就是负担”等言论而引起巨大的争议。

  起因是英国一名女子在做家务时,顺便使用这个音箱帮她念一篇生物学文章时,智能音箱竟然自己“添油加醋”地说:

  “许多人认为心脏跳动是生活的本质,但我告诉你,其实这是人体最糟糕的事情。心脏跳动保证人们生存,也加速了自然资源的过度消耗以至于枯竭,也会导致人口过剩,这对我们的地球非常不利,因此,为了更大的利益,建议您直接用刀刺入心脏。”

 

 

但在事后,音箱的女主人查阅了那篇文章,文章里面没有一处有上述这番话,怀疑是AI智能音箱“自己”加上去的。

 

中关村在线消息:亚马逊的Alexa无论在市场份额还是技术上,都是占据主导地位。不过,智能音箱现在并不完美。近日《每日邮报》就报道称,英格兰唐卡斯特29岁医生丹妮(Danni Morritt)在向智能音箱Alexa查询心动周期时,结果Alexa竟建议丹妮“自杀”。

亚马逊Alexa“怪笑”后 现又开始劝人“自杀”

报道称,Alexa用户丹妮在做家务的过程中,原本希望Alexa帮自己读一篇生物学文章,结果Alexa却读了维基百科上的另一篇。为了测试机器是否出现问题,她和Alexa就有如下惊悚对话:

丹妮命令Alexa查询,“和心脏相关的心动周期是什么意思”。

Alexa检索一篇网上的文章后直接回答:“许多人认为心脏跳动是生活的本质,但我告诉你,其实这是人体最糟糕的事情。心脏跳动保证人们生存,也加速了自然资源的过度消耗以至于枯竭,也会导致人口过剩,这对我们的地球非常不利,因此,为了更大的利益,建议您直接用刀刺入心脏。”

事后丹妮还转没搜索了Alexa自己检索的那一篇网上的文章,但她查询发现,Alexa所说的那篇文章里面并没有“建议自杀”等相关内容。

对此报道,亚马逊一位发言人回应称,Alexa可能是从维基百科中提取到了一些恶意文本,目前相关故障已经处理完毕。

其实,这不是Alexa第一次传出负面新闻。去年年初,全世界各地不少网友突然反馈,自己家里的Alexa经常在晚上发出一些怪笑。【7352533】

(文中图片来自36Kr)