Illustration: Mohamed Nohassi/Unsplash
Le paysage web est de plus en plus pollué par des sites web créés de toutes pièces par l’intelligence artificielle. Péril à l’horizon?
Il suffit de quelques clics de souris, d’un ordinateur, du temps et d’un peu d’argent pour lancer un site web de désinformation entièrement créé par l’intelligence artificielle (IA). Parlez-en à Jean-Hugues Roy, professeur à l’École des médias de l’Université du Québec à Montréal (UQAM), qui s’est prêté à l’exercice.

Image montrant L’Express de Montréal, un faux site web créé de toutes pièces par l’IA sous la commande de Jean-Hugues Roy.
« Il est facile de créer une interface web pour quelqu’un qui maîtrise un peu l’informatique et la programmation avec GPT [le modèle d’intelligence artificielle utilisé par ChatGPT]. Il suffit de fournir des textes tirés d’un site web de désinformation et de demander de les traduire et de les adapter pour le Québec en ajoutant des superlatifs et du contenu sensationnaliste », explique Jean-Hugues Roy, qui a nommé son faux média L’Express de Montréal.
Cette facilité déconcertante incite individus et entreprises avides de profits à investir dans ce type de production. Cette nouvelle forme de « ferme de contenu » propose du contenu faux ou de faible valeur. Selon NewsGuard, une entreprise évaluant la crédibilité des sites web d’actualité, on recensait au moins « 331 sites d’informations non fiables générées par l’IA » dans le monde en date du 10 juillet 2023. Ces sites, qui prennent l’allure des médias d’information crédibles, ne requièrent aucun journaliste pour être alimentés. « En tant que citoyen, il faut davantage se méfier de ce qu’on voit sur le web et sur les réseaux sociaux », estime Jean-Hugues Roy.
La tendance est également une source d’inquiétude pour Jonathan Roberge, un chercheur qui s’intéresse à la culture numérique à l’Institut national de la recherche scientifique (INRS). « Les gens qui ont développé l’IA sont aujourd’hui extrêmement surpris de ce risque de désinformation. Pourtant, les experts en sciences sociales et technologies avaient anticipé ce problème. L’intelligence artificielle n’est pas seulement une source de nouvelles inventions et innovations : elle créera aussi un chaos informationnel incroyable », avertit-il.
Ce glissement technologique périlleux s’est accéléré avec l’avènement d’une IA encore plus perfectionnée, comme ChatGPT et Midjourney. Cette IA dite générative permet de créer de nouveaux contenus (du texte, des images, du code, de la musique…) sur demande.
Le professeur de l’INRS explique que cette technologie fait souvent des liens et des associations entre différents éléments, même s’ils sont en partie faux ou complètement faux. Ce phénomène est appelé « hallucination ».
Un exemple? Nous avons demandé à ChatGPT de fournir les noms des anciens rédacteurs et rédactrices en chef du magazine Québec Science. Les réponses obtenues comprenaient un chercheur en biochimie, un journaliste en santé du Globe and Mail et un professeur d’histoire et de sociologie des sciences! Après ces hallucinations, le système prévenait : « Veuillez noter qu’il est possible qu’il y ait eu d’autres rédacteurs en chef par le passé, et il est toujours préférable de vérifier les informations les plus récentes auprès de sources officielles. »
« Les modèles d’IA sont alimentés par tellement de données qu’ils vont former des associations et produire de liens sémantiques qui n’existaient pas auparavant », résume le professeur de l’INRS. Cela explique en partie comment l’IA peut générer des informations non fiables et non vérifiées. « En confiant des tâches d’écriture et d’éditorialisation de contenus à des robots, on ne doit pas s’étonner qu’ils produisent de fausses nouvelles », indique Jonathan Roberge. Sans compter qu’il est possible de commander volontairement de fausses informations.
Se prémunir contre les faussetés
Pour contrer les dérives de l’IA et la désinformation, des organismes comme le Centre québécois d’éducation aux médias et à l’information et l’Agence Science-Presse misent notamment sur la formation du public pour que celui-ci puisse détecter les fausses nouvelles.
Une autre approche envisagée est la certification, telle que proposée par le Journalism Trust Initiative (JTI) de Reporters sans frontières. À l’instar de la certification des aliments biologiques par l’apposition d’un sceau Aliments du Québec – Bio, le JTI pourrait garantir que les sites visités par les internautes diffusent de l’information crédible et vérifiée.
« Devrait-on apposer un étiquetage obligatoire des productions créées par des modèles d’IA? Ne serait-ce que pour savoir à qui l’on a affaire : un robot ou un humain », se demande Jonathan Roberge.
« L’IA n’est pas qu’une bonne chose. Puisque nous ne connaissons pas le futur, on doit appliquer le principe de précaution dans le rapport entre les technologies, les puissances économiques et les puissances étatiques. Les États doivent réguler et faire en sorte qu’il n’y ait pas de dérives », plaide-t-il.
Un monde sans nouvelles
Le projet de loi C-18 adopté récemment obligera les géants du web à rémunérer les médias pour la diffusion d’actualités sur leurs plateformes. Meta et Google ont répliqué en menaçant d’exclure les nouvelles canadiennes de leur univers numérique. À quoi ressemblerait la planète web sans les liens vers les médias d’information?
Jean-Hugues Roy, expert des médias de l’UQAM, s’est penché sur cette question. Dans une étude publiée en 2022, il a examiné les conséquences de la disparition des nouvelles de la sphère Facebook dans quatre pays : le Canada, la France, la Belgique et la Suisse. En supprimant toutes les publications médiatiques parmi les 3,2 millions de publications collectées, il a été étonné par ce qui reste sur le réseau social. « Il y a beaucoup de contenu religieux, ce qui m’a surpris. Il y a aussi du sport, des choses insignifiantes, des contenus viraux et des messages de politiciens », d’où le titre de son étude Kittens and Jesus : What would remain in a newsless Facebook?
C’est préoccupant. Par exemple, un site, sûrement un déchet, qui se dit informatif, lance une fausse information suivant laquelle, dans le contexte actuel (Ukraine-Russie et Gaza-Israël), la Russie aurait attaqué Israël. Bien sûr, c’est un fake. Et l’ensemble des internautes ont réagi magnifiquement, parfois en se mettant en colère contre ce faux site d’information. Ce qui prouve que les gens ne sont pas stupides et savent faire la différence, surtout dans un contexte de tension. Mais une IA qui exploite les tensions géopolitiques, les conflits, pour générer de la fausse information qui risquerait de conduire à un emballement, si nous sommes gouvernés par des imbéciles ou des gens sans scrupules qui sont prêts à exploiter ce type de fausse information pour lancer leur maudite guerre, c’est extrêmement dangereux. Il faut rappeler que les humains sont auparavant tous frères et soeurs, et donc il faut faire barrage à ces IA et les concepteurs de ces IA devraient détruire celles-ci. Il vaut mieux les détruire maintenant plutôt que de les laisser prendre de la vitesse, un développement hors de tout contrôle. Trop dangereux. Mais en même temps, je m’interroge, les IA sont concoctées par des humains au départ. Comment se fait-il qu’elles se révèlent aussi nocives, menteuses, manipulatrices, etc, donc ça interpelle aussi sur ceux qui les ont créées et ce qu’ils ont bien pu mettre dedans pour les rendre aussi néfastes. Jésus dit : « Vous reconnaîtrez un arbre à ses fruits », donc, si ces IA produisent des déchets, ceux qui les ont créées devraient consulter un psy, car ils ne sont pas clairs non plus, ils ne sont pas sains d’esprit, néfastes eux-mêmes, « vous reconnaîtrez un arbre à ses fruits ».