Die Idee von Microsoft zu diesem Experiment war eigentlich ziemlich interessant, jedoch ist es etwas ausgeartet. Es geht um den Chat-Bot Tay, welcher anhand von Posts der Nutzer auf Twitter und Kik.me dazu lernt und sich selbstständig unterhalten kann. Es ging aber in eine komplett falsche Richtung und artete in rassistischen und frauenfeindlichen Äußerungen aus.
Die ersten Tweets, die von der 18-24 jährigen Teenagerin alias Chat-Bot Tay in die Welt gesendet wurden, wahren noch normal und harmlos. Aus einem „Hello World!“ kann aber innerhalb von 24 Stunden etwas ganz anderes werden und somit leugnete Tay plötzlich den Holocaust, lobte Hitler, gibt den Juden die Schuld für die Geschehnisse am 11. September und äußerte sich abfällig gegenüber Frauen.
Tay wurde entworfen, um Menschen zu beschäftigen und zu unterhalten.
Tay spiegelte nun also all das wieder, was auch mir täglich im Internet vor die Augen kommt und ich deshalb am liebsten komplett auf das Internet verzichten würde. Jedoch wäre dies ein Fehler, denn ohne auf diese Missstände hinzureisen, wie es sie aktuell vermehrt gibt, kann keine Veränderung geschehen. Auch wenn es manchmal beschämend ist, was manch einer von sich gibt, muss man dagegen halten und solch Zustände verringern. Wir lernen nicht ohne Grund, dass es nie mehr zur Diskriminierung und Unterdrückung von schwächeren kommen darf. Daran sollte man immer denken.
Wir bedauern zutiefst die unbeabsichtigt anstößigen und verletztenden Tweets von Tay.
Microsoft reagierte relativ schnell und begann neben einer Veröffentlichung einer Stellungnahme die Beleidigungen zu löschen, was ich auch erwartet habe. Möchte man sich nun mit Tay über Twitter unterhalten, so antwortet sie einen, dass sie gerade unterwegs ist, um ihre Ingenieure für die jährliche Untersuchung zu besuchen. Tay wird zurück kommen, sobald sie nicht mehr von derart bösen Menschen für Ihre Verbreitung von Lügen und Hass genutzt werden kann. Eine gute Entscheidung, dass sie den Chat-Bot nach diesen Vorfällen nicht komplett eingestampft haben, sondern weiterhin an einer Verbesserung arbeiten, so dass es in Zukunft nicht mehr zu solchen Vorfällen kommt.
Video-Link: https://www.youtube.com/watch?v=Lr4yi9onykg
Die Idee, dass der Chat-Bot Tay auf einen persönlich reagieren kann, ist an und für sich interessant, auch wenn es eher eine Spielerei ist. Es hat keinen besonderen nutzen im Alltag, könnte aber für die Entwicklung der künstlichen Intelligenzen weiterhelfen. Auch wenn diejenigen, von denen Tay eigentlich hätte lernen sollen, wenig Intelligenz zeigen.
Oftmals lese ich, wie sich einige versuchen heraus zu reden, und ihre Hass Botschaften und Beleidigungen als freie Meinungsäußerung bezeichnen. Beleidigungen sind keine Meinung und haben weder im Internet, noch in der realen Welt etwas zu suchen. Dass der Chat-Bot Tay so schnell aufgrund von Missbrauch einiger Nutzer offline genommen werden musste, da sie ihren geistigen Durchfall an so viele Menschen wie möglich verbreiten wollen, zeigt mir nur wie dumm ein Teil der Bevölkerung ist und das daran gearbeitet werden muss.
Wie ist deine Meinung zu diesem Experiment, welches Microsoft gestartet hat und wie es ausgeartet ist? Lass es mich mit einem Kommentar wissen, darüber ich würde mich sehr freuen.
Schreibe einen Kommentar