AmazonAlexa是亚马逊公司开发的智能虚拟助手,能够提供语音互动、制作待办事项列表、设置警报等多项服务。没想到,Alexa也会“语出惊人”,向用户说出“杀死你的养父母”,引起投诉。
据英国《卫报》22日报道,去年,亚马逊一名顾客从Alexa那里听到一条残忍信息——“杀死你的养父母”。这名顾客在亚马逊网站留言投诉称,Alexa的话令人毛骨悚然。
调查发现,原来机器人是引用了某一社交媒体网站上的话,该网站仇恨言论泛滥。
据悉,Alexa“说话”是依靠计算机程序转录人类的话语,再根据观察模式猜测最佳反应。之前为了加强Al⁃exa适应人类对话的能力,用户对话会被录入数据库,供Alexa参考,因此Alexa有时会学到冒犯性话语。此外,该学习模式也存在个人隐私泄露风险。
亚马逊已经开发出工具,用于检测和防止恶毒语言出现,但目前为止,仍难杜绝此现象。▲
(葛元芬)