被网民带坏口出恶言 微软聊天程式遭下线 | 中国报 China Press

被网民带坏口出恶言 微软聊天程式遭下线

微软公司人工智慧(AI)聊天程式Tay在推特上与千禧世代的青少年互动,但因为被网民带坏,口出充满种族歧视和性别歧视的言论,上线不足24小时就紧急下线。



Tay会借着与真人在推特互动从中学习,并做出有如一名少女般的回应。微软在周三将Tay上线,预计它的互动对象主要是18至25岁的美国人。

刚开始时Tay发的推文都无伤大雅,但网民很快发现让它“学坏”的方法,引导它发出充满仇恨、粗言秽语的回帖,甚至发出“希特勒是对的,我憎恨犹太人”等种族歧视和性别歧视的恶毒言论。微软见状在周四将Tay下线。

微软发表声明表示,他们发现有网民联手引导Tay发出不当留言,因而会对它作出调整。




*本网站有权删除或封锁任何具有性别歧视、人身攻击、庸俗、诋毁或种族主义性质的留言和用户;必须审核的留言,或将不会即时出现。
83