微軟公司人工智慧(AI)聊天程式Tay在推特上與千禧世代的青少年互動,但因為被網民帶壞,口出充滿種族歧視和性別歧視的言論,上線不足24小時就緊急下線。
Tay會藉著與真人在推特互動從中學習,並做出有如一名少女般的回應。微軟在週三將Tay上線,預計它的互動對象主要是18至25歲的美國人。
剛開始時Tay發的推文都無傷大雅,但網民很快發現讓它“學壞”的方法,引導它發出充滿仇恨、粗言穢語的回帖,甚至發出“希特勒是對的,我憎恨猶太人”等種族歧視和性別歧視的惡毒言論。微軟見狀在週四將Tay下線。
微軟發表聲明表示,他們發現有網民聯手引導Tay發出不當留言,因而會對它作出調整。