Que cherchez-vous ?

Publicité
23 février 2023
Temps de lecture : 3 minutes

ChatGPT en science : alerte à l’imposteur!

Image: Rolf van Root/Unsplash

J’ai demandé à ChatGPT d’écrire un poème sur la parentalité bienveil­lante, en écho au dossier de notre numéro.

Il s’agit de cet agent conversationnel mis au point par la firme californienne OpenAI et disponible depuis novem­bre. Sans être un bijou de littérature, le résultat de ma requête tient la route, vous pourrez en juger dans l’encadré rose au bas de cette page.

En plus des poèmes, l’outil a montré qu’il peut rédiger des travaux scolaires, des programmes sportifs et résumer des théories complexes. Mais saurait-il produire un article scientifique ? C’est déjà fait.

Huit jours après le lancement de ChatGPT, une équipe espagnole lui demandait d’en écrire un sur le rôle de l’intelligence artificielle dans la décou­verte de médicaments, déposé dans arXiv. Les scientifiques ont fourni le sujet, les sections et les informations à inclure pour chacune d’elles. Au final, le groupe a pratiquement tout réécrit : les passages conservés représentent 4,3 % de la production.

Une équipe américaine lui a ensuite fait rédiger 50 résumés (abstracts) d’études en sciences biomédicales. Il a réussi à tromper des scientifiques qui devaient discerner les vrais et les faux résumés, mais pas la majorité du temps : dans 68 % des cas, on repérait son écri­ture à la recette qu’il semblait appliquer. Aurait-ce été différent si les scientifiques n’avaient pas été informés de la possi­bilité qu’un robot ait écrit ces résumés ?

Puis, quelques groupes de recherche ont carrément reconnu ChatGPT comme coauteur, à côté des noms des véritables chercheuses et chercheurs ayant mené les travaux en question.

Des coups d’éclat, voire de marketing ? Probablement. Les capacités du système sont si limitées pour le moment que ce serait comme qualifier Antidote ou Excel d’auteur. L’outil a beau faire beaucoup de bruit, il est à l’heure actuelle surtout divertissant. Un poème, ça vous dit ?

Hallucinations

ChatGPT est ce qu’on appelle un grand modèle de langage. Les lettres GPT viennent des mots Generative Pre-trained Transformer (ou transfor­mateur génératif préentraîné). En somme, il s’est nourri d’un grand volume de textes accessibles en ligne et s’en inspire désormais pour répondre aux requêtes en utilisant des méthodes statistiques. Il a été « entraîné » par des humains et a aussi appris par lui-même à force de donner de bonnes et de mauvaises réponses.

Ou alors il invente. ChatGPT ressemble en bien des points à la fonction de nos cellulaires qui suggère des mots à partir des premières lettres tapées au clavier. Quand il invente des faits, on dit qu’il « hallucine » dans le jargon du domaine.

Les internautes s’en donnent d’ailleurs à cœur joie depuis sa mise en ligne : les réseaux sociaux pullulent d’inepties que le robot conversationnel a pu rédiger. À ce Français qui lui demandait comment différencier les œufs de poule des œufs de vache, il a répondu que ceux des vaches étaient plus gros et avaient un goût plus prononcé ! Voilà qui semble incom­patible avec la rigueur attendue en science.

Et il faut aussi savoir que ChatGPT, pour le moment, vit dans le passé. Il a été entraîné sur le Web d’avant septembre 2021. Posez-lui une question sur un enjeu d’actualité, il ne saura pas vous répondre. Par exemple, je lui ai demandé quel fait avait marqué le 24 février 2022 en Ukraine. Au lieu de nommer l’invasion russe, il a plutôt parlé de manifestations à la suite de « la décision du président Volodymyr Zelensky de mettre fin à l’accord de libre-échange avec l’Union euro­péenne ». Une affirmation sans fonde­ment, mais qui a l’air crédible, et c’est bien là le danger. ChatGPT n’a pas appris à douter.

Il ne sait pas plus demander des précisions à l’usager ou l’usagère quand une requête est imprécise. Il tente plutôt de deviner l’intention. OpenAI indique que, si on le rendait plus prudent, il cesserait de répondre à certaines questions pour lesquelles il a pourtant la bonne réponse. Si ChatGPT était un scientifique, on le qualifierait de toxique !

ChatGPT, tout comme les autres systèmes du genre, va s’améliorer. Les grands éditeurs n’ont tout de même pas attendu avant de prendre position. Nature et Science ont interdit de désigner ChatGPT comme auteur. Il peut être utilisé en recherche, mais sa contribution doit être mentionnée dans la section sur la méthodologie. Comme a dit Holden Thorp, rédacteur en chef des journaux du groupe Science, sur Twitter : « La dernière chose dont nous avons besoin, c’est d’un désengagement des individus et d’une responsabilité réduite en science. »

ChatGPT, écris-moi un poème sur la parentalité bienveillante

Parentalité bienveillante, source de tendresse et d’amour,
Où les enfants sont écoutés, compris, et encouragés.
C’est une voie où la confiance est cultivée,
Où les erreurs sont des opportunités pour apprendre et grandir.

C’est un foyer où la communication est ouverte,
Où les sentiments sont exprimés sans peur ni honte.
Où les limites sont fixées avec fermeté mais douceur,
Où les enfants peuvent être eux-mêmes sans crainte.

C’est un univers où le respect est de mise,
Où les différences sont célébrées et appréciées.
Où les enfants sont aimés inconditionnellement,
Et où ils apprennent à aimer et à être aimables.

Parentalité bienveillante, un cadeau précieux pour les enfants,
Qui les accompagnera tout au long de leur vie.
Et pour les parents, une source de joie et de fierté,
Car ils ont contribué à former des êtres humains heureux et bienveillants.

openai.com/blog/chatgpt/

Laissez un commentaire
S’abonner
Notification pour
*Votre courriel ne sera pas affiché publiquement
0 Commentaires
Le plus ancien
Le plus récent Le plus populaire
Commentaires en ligne
Afficher tous les commentaires
Publicité