亚马逊AI助手恐吓杀人引投诉

2018-12-24 06:11
环球时报 2018-12-24
关键词:葛元芬养父母助手

AmazonAlexa是亚马逊公司开发的智能虚拟助手,能够提供语音互动、制作待办事项列表、设置警报等多项服务。没想到,Alexa也会“语出惊人”,向用户说出“杀死你的养父母”,引起投诉。

据英国《卫报》22日报道,去年,亚马逊一名顾客从Alexa那里听到一条残忍信息——“杀死你的养父母”。这名顾客在亚马逊网站留言投诉称,Alexa的话令人毛骨悚然。

调查发现,原来机器人是引用了某一社交媒体网站上的话,该网站仇恨言论泛滥。

据悉,Alexa“说话”是依靠计算机程序转录人类的话语,再根据观察模式猜测最佳反应。之前为了加强Al⁃exa适应人类对话的能力,用户对话会被录入数据库,供Alexa参考,因此Alexa有时会学到冒犯性话语。此外,该学习模式也存在个人隐私泄露风险。

亚马逊已经开发出工具,用于检测和防止恶毒语言出现,但目前为止,仍难杜绝此现象。▲

(葛元芬)

猜你喜欢
葛元芬养父母助手
法律咨询:被收养后,对生父母是否还有赡养义务
周末睡懒觉有害健康
英演员怕外星人而不敢睡觉
你洗头洗对了吗?
解除收养关系能否要求补偿
英“外交猫”完胜“首相猫”
小助手
灵感助手表彰大会(二)
灵感助手表彰大会(一)
被人收养,该赡养谁?