Diese Woche hat Microsoft ein interessantes Projekt auf Twitter gestartet: Der Chatbot "Tay" sollte, ausgestattet mit künstlicher Intelligenz (AI), basierend auf Tweet-Konversationen mit anderen Nutzern lernen und so Unterhaltungen führen.

Was mit einem "hellooooooo w🌎rld!!!" begann, endete jedoch schnell in beleidigende Tweets, die man eher von einem Menschenhasser und Rassisten erwartet hätte. Innerhalb von weniger als 24 Stunden hatten die Twitter-Nutzer den Bot entsprechend trainiert.

Werbung

Werbeblocker aktiv?

Vermutlich aufgrund eines Werbeblockers kann an dieser Stelle leider keine Werbung angezeigt werden. Als Blog ist diese Website jedoch darauf angewiesen, um diverse Kosten abdecken zu können. Vielleicht möchtest du Servaholics ja in deinem Werbeblocker als Ausnahme hinzufügen und so unterstützen? 🙂

Grund hierfür ist wohl, dass Tay zumindest teilweise Meinungen anderer ungefiltert wiederholt hat, und dies gezielt ausgenutzt wurde. Nach knapp einem Tag ist der Bot seit Donnerstagmorgen wieder offline: https://twitter.com/TayandYou/status/712856578567839745 (entfernt).

Man wolle das System basierend auf diesen neuen Erkenntnissen überarbeiten und insbesondere zusätzliche Filter einbauen, so Microsoft. Weitere Details zu Tay im Allgemeinen sowie zum ersten Tag des Bots auf Twitter findet man unter blogs.microsoft.com.

Quelle: futurezone.at

Update vom 2. April:

Am vergangenen Mittwoch war Tay kurzzeitig wieder online und tweetete neben Spam auch u.a. Beleidigungen. Microsoft spricht von einem Versehen, aktuell sind die Tweets des Bots geschützt und dieser wohl wieder offline: heise.de.

Andere Beiträge, die auf diesen Beitrag verlinken

Deine Meinung zu diesem Artikel?