À l’occasion de son 150e anniversaire, Polytechnique Montréal vous invite à découvrir ses huit pôles d’excellence, dont celui qui concerne la modélisation et l’intelligence artificielle. Découvrez les autres textes de la série.
Remettriez-vous votre vie entre les mains d’un chirurgien ou d’un pilote qui n’a développé son expertise que lors de simulations ? Sauf exception, la réponse à cette question est non. Après tout, il est impossible d’être vraiment fiable sans avoir affronté le réel.
Le risque semble caricatural, pourtant, c’est une situation qu’on trouve dans le monde de l’intelligence artificielle (IA). « Avec les méthodes d’apprentissage actuelles, on n’est tout simplement pas en mesure de généraliser les résultats produits par des systèmes d’intelligence artificielle en dehors de leurs données d’entraînement », explique Foutse Khomh, professeur au Département de génie informatique et génie logiciel à Polytechnique Montréal. En clair : sortez-les de leurs pantoufles et ils peuvent se mettre à faire des erreurs !
Si un certain taux de défaillance est acceptable dans les applications où des vies ne sont pas en jeu, telles que la reconnaissance d’image ou de la parole, pour les domaines où les résultats sont critiques, tels que le diagnostic de cancer ou le contrôle de voitures intelligentes, ça ne passe pas !
Plusieurs scientifiques de Polytechnique Montréal tentent de repenser la façon de concevoir les systèmes intelligents, que ce soit dans la méthode d’apprentissage automatique elle-même, dans la mise au point de techniques pour comprendre les limites actuelles de l’IA ou dans la conception de mécanismes pour pallier les problèmes.
Leur approche est réfléchie. « On voit que certaines équipes dans le monde tentent de régler le problème avec des systèmes plus gros, des algorithmes plus puissants ou un plus grand éventail de données d’entraînement, poursuit le professeur Khomh. Mais ces méthodes ne sont pas soutenables à long terme, car elles consommeraient beaucoup trop d’énergie et de ressources. »
Le chercheur propose plutôt d’accepter l’IA comme un outil imparfait, mais d’améliorer suffisamment notre compréhension de son enveloppe pour savoir quand elle est digne de confiance et quand elle ne l’est pas. « Dans un de nos plus gros projets, où l’on s’intéresse à l’implantation de l’IA dans l’aérospatiale, on doit démontrer une parfaite traçabilité, c’est-à-dire la preuve que l’on comprend le rôle de chaque instruction, en plus de pouvoir expliquer le processus décisionnel et garantir la protection des données d’entraînement. C’est seulement avec tout cela qu’on pourra garantir un résultat fiable. »
Une mission complexe, car les modèles comportent habituellement des milliers de paramètres. Il faut donc des techniques automatiques pour détecter les failles dans la logique décisionnelle. « Si on s’assure de faire les bonnes vérifications à chaque étape, on peut couvrir tous les problèmes, comme un fromage suisse dont on superposerait plusieurs tranches disposées de manière à ce qu’on ne voie plus à travers les trous. »
Pour le chercheur, ce niveau de fiabilité ne pourra toutefois pas être atteint seulement à l’aide du travail d’ingénieurs et d’ingénieures. « Il faudra aussi des spécialistes des sciences sociales, car les humains utilisent ces systèmes ; des variations culturelles influeront sur l’utilisation. Il faut prendre en compte toute la diversité humaine si on veut être en mesure d’aider au bien commun. »
Photo en ouverture: le professeur Foutse Khomh. Crédit: Polytechnique Montréal