Photo: Microsoft
Pour aseptiser les modèles d’intelligence artificielle, des personnes passent des journées à visionner du contenu violent. Pourra-t-on un jour se passer de ce travail du clic ?
Tay était conçue pour imiter la personnalité d’une adolescente. Développé par Microsoft et mis en ligne sur Twitter en 2016, l’agent conversationnel devait dialoguer avec les internautes et apprendre de ces interactions. Tay est plutôt devenue raciste et sexiste, sous l’influence d’un groupe d’internautes qui s’est acharné à lui enseigner des horreurs. « Nous allons construire un mur, et c’est le Mexique qui paiera pour », a publié Tay quelques heures à peine après sa mise en service, parmi ses nombreux commentaires haineux.
La carrière de Tay a été de courte durée : Microsoft l’a retirée de Twitter 16 heures après sa mise en ligne et a présenté ses excuses pour « les tweets offensants et blessants non intentionnels ». L’incident a marqué les esprits et mis en garde tous les développeurs et développeuses d’agents de ce type. Aujourd’hui, il faut ramer fort pour réussir à faire cracher un petit juron aux descendants de Tay, comme ChatGPT.
Pour parvenir à cette façade lisse, il a fallu enseigner aux agents conversationnels, qui s’entraînent à partir de données glanées sur le Web, à détecter le contenu toxique.