Photo: iStock
La féminisation des assistants vocaux perpétue des valeurs rétrogrades.
« − Siri, qui est ton patron ?
− C’est vous.
− Siri, t’arrive-t-il de te sentir surmenée ?
− Je n’y ai jamais vraiment pensé.
− Siri, t’arrive-t-il de te sentir maltraitée?
− Je n’y ai jamais vraiment pensé. »
Hilary Bergen a mené plusieurs conversations de la sorte avec l’assistant vocal d’Apple. Son objectif : comprendre pourquoi des outils technologiques comme Siri, mais aussi Alexa d’Amazon, Cortana de Microsoft et l’Assistant Google, sont des « femmes » et surtout pourquoi sont ainsi perpétués des valeurs rétrogrades et des biais sexistes.
« Si les programmeurs ont donné des voix féminines aux assistants virtuels, c’est parce que cela encourage les échanges intimes, avance l’étudiante au doctorat interdisciplinaire en lettres et en sciences humaines de l’Université Concordia. De façon générale, nos sociétés considèrent les femmes comme non menaçantes. Les voix rassurantes de ces assistants – tour à tour associées aux images de la secrétaire, de la parfaite petite amie ou de la gentille maman – sont une illusion qui facilite et camoufle les nombreuses atteintes à la vie privée qu’on leur autorise, comme fouiller dans nos textos et nos courriels. »
Comme d’autres avant elle, Hilary Bergen note que les réponses scriptées de Siri trahissent nos a priori sur le genre.