L'Opinion Maroc - Actuali
Consulter
GRATUITEMENT
notre journal
facebook
twitter
youtube
linkedin
instagram
search


Planète

Les petits modèles, une piste pour réduire de 90% la consommation énergétique de l'IA, selon l'Unesco


Rédigé par L'Opinion Avec MAP le Mardi 8 Juillet 2025

Réduire de 90% la consommation énergetique de l'intelligence artificielle en ayant recours à des petits modèles spécialisés et en posant des questions plus courtes? Telle est la piste envisagée par l'Unesco dans une étude mardi.



Chaque requête envoyée à ChatGPT consomme en moyenne 0,34 Wh d'électricité, a révélé en juin Sam Altman, patron de la start-up OpenAI, sachant que le chatbot reçoit à peu près 1 milliard de requêtes par jour.

Cela représente 310 GWh par an, soit l'équivalent de la consommation électrique annuelle de 3 millions de personnes en Ethiopie, pointe l'agence onusienne dans son rapport publié à l'occasion du forum AI 4 Good à Genève.

Afin de réduire cette consommation d'énergie, qui ne fait que croître à mesure que l'utilisation de l'IA générative se diffuse, l'Unesco prône une réduction de la taille des modèles, à travers des techniques de compression.

Formuler des requêtes (appelées "prompt") plus courtes et limiter la taille des réponses des modèles d'IA, permet aussi de diminuer la consommation d'énergie de 50%, d'après les auteurs.

L'usage de modèles de taille réduite, loin des grands modèles de langage généralistes, est aussi à privilégier selon eux.

Et la combinaison de deux méthodes, à savoir l'utilisation de petits modèles de langage avec des questions ou instructions courtes, aboutit à une réduction de 90% de l'énergie consommée, tout en maintenant "une forte pertinence", assurent-ils.

D'après leurs travaux, chaque jour les requêtes qui consistent à demander l'explication d'un concept à un grand modèle de langage généraliste, d'une longueur de 300 mots en moyenne, représentent l'équivalent de la consommation électrique de 38.000 foyers au Royaume-Uni.

A l'inverse, les requêtes du même type de seulement 150 mots à un petit modèle de langage spécialisé représentent la consommation électrique de moins de 4.000 foyers.

"Si les petits modèles peuvent être plus efficaces que les grand modèles pour certaines tâches spécifiques, ils peuvent ne pas être aussi pertinents pour des usages généraux", précise toutefois l'étude.

Déjà conscients de cette problématique énergétique, les géants de la tech ont tous désormais dans leur gamme de produits des versions miniatures, avec moins de paramètres, de leurs grands modèles de langage.

Google commercialise par exemple Gemma, Microsoft a Phi-3 et OpenAI dispose de GPT-4o mini. C'est aussi un créneau sur lequel se positionne des entreprises d'IA française, comme Mistral AI avec son modèle Ministral.







🔴 Top News