Que cherchez-vous ?

Publicité
22 février 2024
Temps de lecture : 4 minutes

Solutions pour une intelligence artificielle moins énergivore

Les centres de données utilisent 1 % de la production mondiale d’électricité et devraient en utiliser encore plus avec la croissance de l’IA. Photo: Shutterstock

Pour réduire la consommation énergétique de l’intelligence artificielle, des solutions techniques existent. Mais d’abord, il faut utiliser les grands modèles avec parcimonie, disent des scientifiques.

L’entrée en scène de ChatGPT, en novembre 2022, a déclenché une ruée sans précédent vers l’intelligence artificielle (IA). N’importe qui peut maintenant poser une question au robot depuis le confort de son salon. Dans les centres de données de Microsoft, d’Amazon et de Google, des milliers de serveurs ultra­spécialisés roulent à fond de train pour répondre à la demande engendrée par les grands modèles d’IA générative.

Cela requiert évidemment de l’énergie. L’entraînement initial de GPT-3 – le modèle sous-jacent à ChatGPT – a nécessité plus de 1200 mégawattheures d’électricité : autant que ce qu’une cinquantaine de maisons québécoises consomment en douze mois. Cela peut paraître peu, mais il faut aussi prendre en compte les milliards de requêtes lancées au robot conversationnel chaque mois. On estime que les centres de données de ChatGPT utilisent plus de 500 mégawattheures par jour. Et ChatGPT n’est qu’un modèle parmi d’autres.

Si l’IA générative continue de se répandre comme une traînée de poudre, la consommation d’énergie explosera au bout de la mèche. Que les serveurs carburent aux énergies fossiles ou renou­velables, il y a de bonnes raisons de couper court à cette hémorragie.

Publicité