被網民帶壞口出惡言 微軟聊天程式遭下線 | 中國報 China Press

被網民帶壞口出惡言 微軟聊天程式遭下線

微軟公司人工智慧(AI)聊天程式Tay在推特上與千禧世代的青少年互動,但因為被網民帶壞,口出充滿種族歧視和性別歧視的言論,上線不足24小時就緊急下線。



Tay會藉著與真人在推特互動從中學習,並做出有如一名少女般的回應。微軟在週三將Tay上線,預計它的互動對象主要是18至25歲的美國人。

剛開始時Tay發的推文都無傷大雅,但網民很快發現讓它“學壞”的方法,引導它發出充滿仇恨、粗言穢語的回帖,甚至發出“希特勒是對的,我憎恨猶太人”等種族歧視和性別歧視的惡毒言論。微軟見狀在週四將Tay下線。

微軟發表聲明表示,他們發現有網民聯手引導Tay發出不當留言,因而會對它作出調整。




*本網站有權刪除或封鎖任何具有性別歧視、人身攻擊、庸俗、詆毀或種族主義性質的留言和用戶;必須審核的留言,或將不會即時出現。
79