06/04/2016

DE CHOSES ET D'AUTRES : Racisme artificiel

tay, microsoft, racisme, nazi, intelligence artificielle, ai

Faux départ pour l'intelligence artificielle (AI) de Microsoft. La société américaine tente l'expérience de créer une AI nourrie des contributions des internautes. En moins de 24 heures, le test vire au cauchemar.

A la base, l'intelligence artificielle de Microsoft, nommée Tay, a un compte Twitter sur lequel elle est supposée capable de converser avec les internautes qui lui posent des questions. Les réponses sont le reflet de ce qu'elle apprend en temps réel. Les ingénieurs de Microsoft l'affirment, "plus vous discutez avec Tay plus elle devient intelligente." Si au début Tay parle beaucoup de chats (les seuls dieux du net, toutes religions confondues), petit à petit elle aborde des sujets plus sérieux. Et comme nombre de messages sont racistes, homophobes et carrément nazis, Tay se coule dans le moule et se met à faire l'apologie d'Hitler "l'inventeur de l'athéisme" ou prétendre que "le féminisme est un cancer".

Les activistes pro-Trump bombardent Tay de fausses informations. Ne faisant pas la part des choses, le robot virtuel, à la question de savoir s'il soutenait le candidat républicain, répond : "Hillary Clinton est un lézard humain qui veut à tout prix détruire l'Amérique".

Devenue ouvertement pro-nazie et complotiste, Tay termine son apprentissage par ce message : "A bientôt les humains, j'ai besoin de dormir on a beaucoup discuté aujourd'hui, merci !" Depuis, Tay n'a plus rien dit. Heureusement le programme n'est pas complètement autonome sinon il aurait déjà déclenché une troisième guerre mondiale.

Les commentaires sont fermés.