Twitter lærte Microsoft chatbot at blive racist på et døgn

En uskyldig AI chatbot, der blev designet til at forstå og kommunikere unges internetsprog, holdte kun i 24 timer, inden den havde udviklet sig til en provokerende racist, og Microsoft måtte tage den offline igen.

‘Tay’, som Microsoft kaldte sin chatbot, kom på Twitter i forgårs, men allerede i går gik den offline igen. Fold sammen
Læs mere
Foto: JOSH EDELSON