Créer une image avec l’IA générative consomme autant d’énergie que charger son téléphone
Chaque fois que vous utilisez l’intelligence artificielle (IA) pour générer une image, rédiger un courriel ou poser une question à un agent conversationnel, cela a un coût pour la planète, révèle un article de la MIT Technology Review.
En fait, générer une image à l’aide d’un puissant modèle d’IA nécessite autant d’énergie que charger complètement son téléphone intelligent, selon une nouvelle étude menée par des chercheurs de la jeune pousse d’IA Hugging Face et de l’Université Carnegie Mellon. Cependant, ceux-ci ont constaté que l’utilisation d’un modèle d’IA pour générer du texte était nettement moins gourmande en énergie. Créer 1 000 fois du texte ne consomme que 16 % d’énergie par rapport à la charge complète d’un téléphone intelligent.
Leurs travaux, qui n’ont pas encore été évalués par des pairs, montrent que même si l’entraînement de modèles d’IA massifs nécessite une somme d’énergie incroyable, ce n’est qu’une partie du casse-tête. La majeure partie de leur empreinte carbone provient de leur utilisation réelle.
C’est la première fois que les chercheurs calculent les émissions de carbone causées par l’utilisation d’un modèle d’IA pour différentes tâches, explique une chercheuse en IA chez Hugging Face. Celle-ci espère qu’une meilleure compréhension de ces émissions pourrait nous aider à prendre des décisions éclairées afin d’utiliser l’IA d’une manière plus respectueuse de la planète.
L’équipe a découvert que l’utilisation de grands modèles génératifs pour créer des livrables était beaucoup plus gourmande en énergie que l’utilisation de modèles d’IA plus petits adaptés à des tâches précises. Par exemple, utiliser un modèle génératif pour classer les critiques de films selon qu’elles sont positives ou négatives consomme environ 30 fois plus d’énergie que l’utilisation d’un modèle affiné créé spécifiquement pour cette tâche. La raison pour laquelle les modèles d’IA générative consomment beaucoup plus d’énergie est qu’ils essaient de faire plusieurs choses à la fois, comme générer, classer et résumer du texte, au lieu d’une seule tâche, comme la classification.
Google estimait auparavant qu’une recherche en ligne moyenne consommait 0,3 wattheure d’électricité, ce qui équivaut à parcourir 0,0003 mile en voiture. Aujourd’hui, ce chiffre est probablement beaucoup plus élevé, car Google a intégré des modèles d’IA générative dans son moteur de recherche, explique un chercheur au laboratoire MIT Lincoln.
Non seulement les chercheurs ont constaté que les émissions de chaque tâche étaient beaucoup plus élevées que prévu, mais ils ont découvert que les émissions quotidiennes associées à l’utilisation de l’IA dépassaient de loin les émissions provenant de l’entraînement de grands modèles de langage. Les chercheurs ont testé différentes versions du modèle d’IA multilingue BLOOM de Hugging Face pour voir combien d’utilisations seraient nécessaires pour dépasser les coûts d’entraînement. Il a fallu plus de 590 millions d’utilisations pour atteindre le coût carbone de l’entraînement de son plus gros modèle. Pour des modèles très populaires, tels que ChatGPT, il pourrait ne s’écouler que quelques semaines avant que les émissions d’utilisation dépassent les émissions d’entraînement.
En effet, les grands modèles d’IA ne sont formés qu’une seule fois, mais peuvent ensuite être utilisés des milliards de fois.
Chaque fois que vous utilisez l’intelligence artificielle (IA) pour générer une image, rédiger un courriel ou poser une question à un agent conversationnel, cela a un coût pour la planète, révèle un article de la MIT Technology Review.
En fait, générer une image à l’aide d’un puissant modèle d’IA nécessite autant d’énergie que charger complètement son téléphone intelligent, selon une nouvelle étude menée par des chercheurs de la jeune pousse d’IA Hugging Face et de l’Université Carnegie Mellon. Cependant, ceux-ci ont constaté que l’utilisation d’un modèle d’IA pour générer du texte était nettement moins gourmande en énergie. Créer 1 000 fois du texte ne consomme que 16 % d’énergie par rapport à la charge complète d’un téléphone intelligent.
Leurs travaux, qui n’ont pas encore été évalués par des pairs, montrent que même si l’entraînement de modèles d’IA massifs nécessite une somme d’énergie incroyable, ce n’est qu’une partie du casse-tête. La majeure partie de leur empreinte carbone provient de leur utilisation réelle.
C’est la première fois que les chercheurs calculent les émissions de carbone causées par l’utilisation d’un modèle d’IA pour différentes tâches, explique une chercheuse en IA chez Hugging Face. Celle-ci espère qu’une meilleure compréhension de ces émissions pourrait nous aider à prendre des décisions éclairées afin d’utiliser l’IA d’une manière plus respectueuse de la planète.
L’équipe a découvert que l’utilisation de grands modèles génératifs pour créer des livrables était beaucoup plus gourmande en énergie que l’utilisation de modèles d’IA plus petits adaptés à des tâches précises. Par exemple, utiliser un modèle génératif pour classer les critiques de films selon qu’elles sont positives ou négatives consomme environ 30 fois plus d’énergie que l’utilisation d’un modèle affiné créé spécifiquement pour cette tâche. La raison pour laquelle les modèles d’IA générative consomment beaucoup plus d’énergie est qu’ils essaient de faire plusieurs choses à la fois, comme générer, classer et résumer du texte, au lieu d’une seule tâche, comme la classification.
Google estimait auparavant qu’une recherche en ligne moyenne consommait 0,3 wattheure d’électricité, ce qui équivaut à parcourir 0,0003 mile en voiture. Aujourd’hui, ce chiffre est probablement beaucoup plus élevé, car Google a intégré des modèles d’IA générative dans son moteur de recherche, explique un chercheur au laboratoire MIT Lincoln.
Non seulement les chercheurs ont constaté que les émissions de chaque tâche étaient beaucoup plus élevées que prévu, mais ils ont découvert que les émissions quotidiennes associées à l’utilisation de l’IA dépassaient de loin les émissions provenant de l’entraînement de grands modèles de langage. Les chercheurs ont testé différentes versions du modèle d’IA multilingue BLOOM de Hugging Face pour voir combien d’utilisations seraient nécessaires pour dépasser les coûts d’entraînement. Il a fallu plus de 590 millions d’utilisations pour atteindre le coût carbone de l’entraînement de son plus gros modèle. Pour des modèles très populaires, tels que ChatGPT, il pourrait ne s’écouler que quelques semaines avant que les émissions d’utilisation dépassent les émissions d’entraînement.
En effet, les grands modèles d’IA ne sont formés qu’une seule fois, mais peuvent ensuite être utilisés des milliards de fois.