Des biais discriminatoires à la collecte d’informations personnelles, l’intelligence artificielle est loin d’être neutre. Comment veiller à ce que les robots respectent nos droits fondamentaux ?
Vous êtes-vous déjà prêté au jeu Art Selfie de Google ? Réalisez un égoportrait et le système de reconnaissance faciale vous renvoie à votre sosie artistique parmi les tableaux exposés dans différents musées du monde. En janvier 2018, le concept a conquis les internautes, et l’application Google Arts & Culture a battu des sommets de téléchargement. Mais rapidement, des femmes se sont plaintes d’être associées à des portraits d’hommes et des Afro-Américains n’ont pas aimé être comparés à des esclaves. Une faille de la reconnaissance faciale ou un algorithme misogyne et raciste ?
Sachant que les machines capables de simuler une intelligence sont de plus en plus utilisées dans des ministères, des banques et des entreprises, ces biais discriminatoires pourraient avoir des conséquences importantes sur nos vies. Les algorithmes d’apprentissage nous seront-ils nuisibles au final ? Voilà qui intéresse des chercheurs d’ici, comme en témoigne le lancement récent de l’Observatoire international sur les impacts sociétaux de l’intelligence artificielle et du numérique (OIISIAN), qui réunit plus de 160 scientifiques québécois.
Il faut savoir qu’un algorithme agit comme une petite boîte noire qui transforme des données en décisions.