智能助手劝主人自杀:具体怎么回事?为什么突然出BUG?

原标题:智能助手劝主人自杀:具体怎么回事?为什么突然出BUG? 随着科技的高速发展,如今有很多智能物品问世,都可以和人短暂交流,回答人提出的问题。 近日一位亚马逊智能助手用户在向Alexa询问心动周期的问题时,竟然收到让她毛骨悚然的答案。 护理人员丹妮·莫瑞特(Danni Mor

智能助手劝主人自杀为什么会这样?

随着科技高速发展,如今有很多智能物品问世,都可以和人短暂交流,回答人提出的问题

近日一位亚马逊智能助手用户在向Alexa询问心动周期的问题时,竟然收到让她毛骨悚然的答案。

护理人员丹妮·莫瑞特(Danni Morritt)决定问Alexa一些关于心脏的信息。

智能助手劝主人自杀:具体怎么回事?为什么突然出BUG?

Alexa却突然表示:“心跳是人体最糟糕的过程,人活着会给地球造成负担”,还建议主人“将刀插入心脏”。

Danni被吓坏了。

Alexa似乎从任何人都可以编辑的维基百科上下载了有争议的文本。

此前,为了让Alexa看起来更人性化一点,亚马逊更新了功能,宣布语音助手将能够在一些语句中添加语调,表达失望或兴奋等情绪。

头条奇闻微信公众号:奇闻有趣
关注头条奇闻公众号,订阅更多头条奇闻