微软公司人工智慧(AI)聊天程式Tay在推特上与千禧世代的青少年互动,但因为被网民带坏,口出充满种族歧视和性别歧视的言论,上线不足24小时就紧急下线。
Tay会借着与真人在推特互动从中学习,并做出有如一名少女般的回应。微软在周三将Tay上线,预计它的互动对象主要是18至25岁的美国人。
刚开始时Tay发的推文都无伤大雅,但网民很快发现让它“学坏”的方法,引导它发出充满仇恨、粗言秽语的回帖,甚至发出“希特勒是对的,我憎恨犹太人”等种族歧视和性别歧视的恶毒言论。微软见状在周四将Tay下线。
微软发表声明表示,他们发现有网民联手引导Tay发出不当留言,因而会对它作出调整。