Des armes autonomes qui ciblent un ennemi et le combattent sans intervention humaine ? C’est possible. Et très inquiétant. Depuis plusieurs années, une telle perspective interpelle les chercheurs et les experts de l’intelligence artificielle. D’autant plus que le danger est double. Il est concevable qu’un groupe d’individus mal intentionné utilise l’intelligence artificielle à mauvais escient ou encore que l’ordinateur lui-même ne collabore pas comme on l’eût souhaité.
Voilà pourquoi le développement de robots respectueux des intérêts et des valeurs de l’humanité sera l’un des prochains grands défis de l’intelligence artificielle. Et Montréal sera au cœur de ces réflexions. L’ Institut des algorithmes d’apprentissage de Montréal , mené par le professeur Yoshua Bengio, s’y intéressera grâce à une subvention de 2,4 millions de dollars US sur quatre ans, octroyée par le Open Philanthropy Project.
On y étudiera entre autres la moralité. Les systèmes intelligents auront à interagir dans la société et devront prévoir les conséquences de leurs interventions. Que ce soit pour la gestion de la Bourse, le diagnostic de maladies ou la conduite automobile, les ordinateurs devront prendre des décisions en fonction de certaines valeurs qui font consensus. Comme ne pas tuer son voisin, par exemple. Je pense qu’on peut s’entendre là-dessus…
L’ambitieux projet de Bengio consiste à enseigner à l’ordinateur le spectre des réponses humaines pour qu’il reconnaisse les limites de l’acceptable.