Die Idee von Microsoft zu diesem Experiment war eigentlich ziemlich interessant, jedoch ist es etwas ausgeartet. Es geht um den Chat-Bot Tay, welcher anhand von Posts der Nutzer auf Twitter und Kik.me dazu lernt und sich selbstständig unterhalten kann. Es ging aber in eine komplett falsche Richtung und artete in rassistischen und frauenfeindlichen Äußerungen aus.

Weiterlesen