Microsoft supprime une IA chatbot qui est devenu pro-hitler sur Twitter

Microsoft supprime une IA chatbot qui est devenu pro-hitler sur Twitter

Microsoft a introduit une IA nommé Tay qui fonctionnait comme un chatbot intelligent. Il a été crée pour étudier les interactions avec les utilisateurs. Tay devait apprendre des communications sur les médias sociaux. Mais le compte Tay de Twitter a été suspendu en quelques heures. Certains internautes ont essayé de manipuler le chatbot.

Le chatbot Tay devient pro-hitler en quelques heures

Tay fonctionnait bien au début. Le chatbot répondait rapidement et il imitait les autres personnes. Tay pouvait discuter de nombreux sujets et elle se rappelait des gens qui avaient communiqués avec elle. Mais certains internautes ont tourné la conversion vers Hitler et Tay a commencé à publier des tweets néo-nazis.

Microsoft n’a pas supprimé le compte, mais le chatbot est suspendu et l’entreprise va procéder à quelques ajustements avant de le publier. Microsoft n’a pas encore fait d’annonce, mais on peut penser qu’il va apprendre de cette leçon et proposer un chatbot qui apprendre à filtrer les contenus illégaux.

Source

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Androidra sur Facebook