Image: Pete Linforth/Pixabay
Le magazine garde les deux pieds dans le réel et continuera d’illustrer ses articles avec des photos et images réalisées par des humains. Il en va de même pour la production des textes.
En avril, nos collègues de l’émission Découverte ont diffusé un court reportage fascinant sur les difficultés éprouvées par les systèmes d’intelligence artificielle (IA) quand vient le temps de représenter la main humaine. La journaliste Bouchra Ouatik y expliquait que c’est souvent cette faiblesse qui permet de distinguer les vraies photos des images hyperréalistes générées par des ordinateurs. Le titre du reportage dit tout : « Des mains cauchemardesques » !
Trop de doigts, des ongles aux mauvais endroits, des proportions ridicules… La faute revient probablement au trop petit nombre de mains dans les jeux de données qui ont nourri les systèmes (comme DALL-E, dont nous vous parlions en 2022) lors de leur phase d’apprentissage, alors qu’il s’agit d’une partie du corps excessivement complexe à représenter en raison de ses multiples articulations.
Qu’à cela ne tienne. Dans quelques mois, les mains cauchemardesques seront sans doute chose du passé. La dernière version de l’algorithme Midjourney maîtrise d’ailleurs déjà mieux cet organe. Bientôt, nous n’y verrons que du feu.
Notre directrice artistique ne passera pas pour autant de commandes à un logiciel, contrairement à ce que font d’autres médias, dont le quotidien Blick, en Suisse. D’abord, il y a la question des droits d’auteurs : les systèmes n’ont pas payé les artistes et les photographes qui ont réalisé les images qui leur ont tout appris. Ensuite vient l’enjeu éthique.
Blick a publié une image générée par intelligence artificielle représentant cinq jeunes hommes pour accompagner un texte sur une fraude bien réelle commise par des vingtenaires. Le journal a eu beau inscrire la mention « Photomontage Midjourney », le geste reste dangereux en plus d’être complètement inutile : avait-on vraiment besoin d’une représentation fictive du groupe en cause ?
Alors que les fausses images abondent sur le Web (vous avez vu celles du pape François vêtu d’une doudoune blanche et portant une chaîne au pendentif en croix digne d’un rappeur ? Celles de l’arrestation nocturne de l’ex-président américain Donald Trump ?), Québec Science refuse d’entrer dans la danse. Est-ce symbolique ? Un peu. Mais le signal est clair : nous avons les deux pieds dans le réel.
À la tentation d’économiser quelques minutes ou quelques dollars grâce aux technologies automatiques, nous répliquons par un engagement à être encore plus présents et présentes sur le terrain, encore plus près de nos sources et du public. L’époque exige cela, comme le dit le sociologue Philippe de Grosbois dans La collision des récits.
Contre quel danger tentons-nous de nous prémunir ? Celui de nourrir ou d’entretenir le flou. « Un des plus grands risques liés à l’avènement des nouvelles technologies réside dans le scepticisme généralisé engendré par l’incapacité de distinguer le vrai du faux », écrivait récemment François Charbonneau, professeur à l’École d’études politiques de l’Université d’Ottawa sur le blogue Vaste programme. Le chercheur va jusqu’à demander que soit instauré un « droit au réel », c’est-à-dire une obligation légale de divulgation lorsqu’une image ou une vidéo est truquée.
C’est vrai qu’il est plus facile que jamais pour un groupe politique ou économique de nous manipuler. Et, à l’inverse, le contexte climatique, social et économique peut donner envie à chacun de choisir sa vérité.
Je ne soutiens pas que Québec Science détient LA vérité. Ce serait prétentieux. Le travail des journalistes scientifiques est de suivre et d’examiner l’avancement des connaissances, en perpétuel mouvement, et de rendre le tout digeste pour le grand public. C’est une expertise, pas une religion.
Mais tout ce qui loge du côté du faux ne peut avoir sa place dans les médias. Embaucher une « Miss Météo » virtuelle, comme l’a fait en avril la chaîne suisse romande M Le Média, c’est se tirer dans le pied.
Cet engagement à ne pas utiliser l’IA dans la production de Québec Science vaut aussi pour nos textes. Il en va d’ailleurs de notre crédibilité ; Men’s Journal a perdu la face plus tôt cette année en publiant un texte sur la testostérone bourré d’erreurs… son premier article utilisant ChatGPT.
D’autant plus que les têtes dirigeantes des compagnies d’IA ont souvent l’air d’improviser. Midjourney a ainsi permis aux internautes de créer des images des présidents de la Russie et des États-Unis, Vladimir Poutine et Joe Biden, mais pas du président chinois, Xi Jinping. « On veut juste minimiser le potentiel de controverse », a écrit pour se justifier le PDG David Holz, selon ce que rapportait le Washington Post. Drôle de logique.
La démocratie est fragile. Les temps sont polarisés et polarisants. Jouer avec les limites du vrai et du faux me semble irresponsable dans un contexte d’information. Nous continuerons d’illustrer nos articles avec des photos et des images réalisées par des humains qui ont une éthique claire.
Quand les mains cauchemardesques auront disparu pour de bon, que les grands modèles de langage comme ChatGPT ne feront plus d’erreurs grossières, il ne faudra pas perdre de vue les mains invisibles qui ont intérêt à semer le doute ou la pagaille dans nos sociétés.