E-mail: info@fsoriginal.com Téléphone : +86 151-1302-4743
Maison » Blogues » ChatGPT consomme plus de 500 000 KWh d'électricité par jour, et c'est l'énergie qui est bloquée dans le développement de l'IA ?

ChatGPT consomme plus de 500 000 KWh d'électricité par jour, et c'est l'énergie qui est bloquée dans le développement de l'IA ?

Nombre Parcourir:0     auteur:Éditeur du site     publier Temps: 2024-10-16      origine:Propulsé

enquête

facebook sharing button
twitter sharing button
line sharing button
wechat sharing button
linkedin sharing button
pinterest sharing button
whatsapp sharing button
sharethis sharing button



Le New Yorker a récemment rapporté que ChatGPT consomme plus de 500 000 kilowattheures d'électricité par jour, soit 17 000 fois la consommation moyenne d'un ménage aux États-Unis. Elon · Musk a également prédit que le manque d'énergie deviendra un facteur majeur limitant le développement de l'IA au cours des deux prochaines années. Cependant, est-ce vraiment le cas ?


Les opinions actuelles sur la consommation électrique de l’IA reposent en grande partie sur des estimations et non sur des mesures réelles. Un rapport publié par l'Information Technology and Innovation Foundation (ITIF) des États-Unis affirme que des études individuelles inexactes surestiment considérablement la consommation d'énergie de l'IA, ce qui peut nuire au développement de l'IA et entraver le potentiel de l'IA à contribuer à la conservation de l'énergie et à la réduction des émissions, ainsi qu'à relever les défis environnementaux. Les acteurs du secteur réclament une plus grande transparence dans le secteur et une réduction de l’utilisation abusive de la technologie de l’IA.


Défis de l’évaluation de la consommation d’énergie de l’IA :

Il existe de nombreux facteurs d'influence


L'ITIF est un groupe de réflexion à but non lucratif dont le siège est à Washington, aux États-Unis. Dans le rapport 'Revisiting Concerns about AI Energy Consumption', l'ITIF note que la consommation d'énergie et les émissions de carbone des différents modèles d'IA varient considérablement et sont influencées par un certain nombre de facteurs, notamment la conception des puces, les systèmes de refroidissement, la conception des centres de données, technologie logicielle, charge de travail, sources d’alimentation, etc.


En conséquence, les conclusions des différentes études divergent lorsqu’il s’agit d’estimer la consommation énergétique de l’IA. Une étude pré-imprimée publiée en 2019 par une équipe de l'Université du Massachusetts à Amherst a estimé que BERT, alors le principal modèle de langage de Google, avait émis environ 1 438 livres de dioxyde de carbone (652 kilogrammes) pendant 79 heures d'entraînement, l'équivalent d'un passager volant entre New York et San Francisco. L’étude est également parvenue à des conclusions similaires sur des technologies telles que la recherche d’architecture neuronale (NAS) par l’IA. L'article a été cité près de 3 000 fois dans Google Scholar et a bénéficié d'une large couverture médiatique.


Cependant, les entreprises et les institutions engagées dans la recherche et le développement en IA sont parvenues à des conclusions très différentes. En 2021, Google et l'Université de Californie à Berkeley ont publié une étude préliminaire qui a révélé que l'étude surestimait les émissions de carbone de l'IA de Google d'un facteur 88. Mais l'étude a reçu beaucoup moins d'attention que la première, avec seulement environ 500 citations. ...


IA


En raison de la tendance des médias et du public à se concentrer sur les informations négatives, les recherches aux conclusions surprenantes sont plus susceptibles d'être diffusées. Les paroles et les actes de célébrités de l'industrie technologique amplifient également l'information selon laquelle « l'IA consomme beaucoup d'énergie », et Musk a prédit que « les facteurs limitant le développement de l'IA passeront du « manque de silicium » à « le manque de silicium ». 'manque d'électricité''; Sam · Altman, PDG d'Open AI, a également déclaré que l'IA consommerait plus d'électricité et investirait massivement dans la fusion nucléaire.


Évaluer la consommation énergétique de l’IA

depuis une perspective de cycle de vie complet


Selon le rapport de l'ITIF, une grande partie de la recherche et des politiques actuelles sur la formation à l'IA est importante, mais plusieurs études ont montré que l'IA est plus gourmande en énergie dans le processus d'inférence, c'est-à-dire le processus dans lequel les gens utilisent l'IA pour produire des résultats. De plus, la consommation d'énergie des différents modèles d'IA pour différents types de tâches d'inférence varie considérablement. Par exemple, si 1 000 requêtes sont calculées, la consommation électrique de la tâche de classification d'images est de 0,007 kWh, tandis que la consommation électrique de la tâche de génération d'images est de 2,907 kWh.


Les auteurs du rapport soulignent que la formation à l’IA est un événement ponctuel et que son utilisation est un processus à long terme, et que le débat sur la consommation d’énergie de l’IA ne devrait pas se concentrer sur une croissance explosive, mais sur les impacts à long terme. Et, du point de vue de l’histoire de la technologie, la croissance de l’IA et sa consommation d’énergie seront limitées par les quatre facteurs suivants :


  • 1. Le coût de la construction des infrastructures limitera la croissance rapide de l’IA


La conclusion selon laquelle « ChatGPT consomme plus de 500 000 kWh d'électricité par jour » vient d'une estimation d'Alex de Vries, auteur du blog technologique Digiconomist·· Alex de Vries. De · Fries a également prédit que dans le pire des cas, la consommation électrique de l'IA de Google serait comparable à celle de l'ensemble de l'Irlande, atteignant 29,3 TWh (térawattheures) par an. Mais il a également souligné que pour atteindre une telle échelle, Google devrait investir 100 milliards de dollars dans des puces, en plus des milliards de dollars dans l'exploitation des centres de données et les factures d'électricité. Si les coûts opérationnels de l’IA restent élevés, les entreprises commerciales à la recherche de profits ralentiront naturellement et réduiront leurs investissements.


  • 2. Il existe un effet marginal sur la croissance des performances de l’IA


L’IA a réalisé des percées dans de nombreux domaines ces dernières années, ce qui signifie qu’elle pourrait bientôt se retrouver dans un goulot d’étranglement. Les résultats du développement et de l’exploitation de modèles plus grands seront de plus en plus faibles, et il sera de plus en plus difficile d’améliorer la précision. Par conséquent, l’optimisation des modèles d’IA pourrait être la prochaine direction de la recherche et du développement.


  • 3. L'amélioration des performances des logiciels et du matériel réduira la consommation d'énergie de l'IA


Les optimisations des modèles d’IA, ainsi que les progrès de la technologie matérielle, devraient réduire la consommation d’énergie de l’IA. Selon une étude publiée dans la revue Science, entre 2010 et 2018, la quantité de calcul dans les centres de données mondiaux a augmenté de 550 % et l'espace de stockage de 2 400 %, mais la consommation électrique n'a augmenté que de 6 %. Les innovations en matière de matériel, de technologie de virtualisation et de conception de centres de données ont amélioré l'efficacité énergétique et rendu le cloud computing possible à grande échelle.


chatgtp


De même, des techniques telles que l’élagage, la quantification et la distillation devraient conduire à de meilleurs algorithmes qui rendront les modèles d’IA plus rapides et plus économes en énergie. L'équipe de recherche de Google et de l'Université de Californie à Berkeley a souligné que grâce à diverses avancées technologiques, la part de la consommation d'énergie de l'IA au sein de Google est restée stable ces dernières années, même si l'apprentissage automatique a atteint 70 à 80 % de la consommation d'énergie de l'IA au sein de Google. le coût de calcul.


  • 4. L’application de l’IA réduira à terme les émissions de carbone d’une certaine manière


Globalement, lorsque les gens remplacent les lettres traditionnelles par le courrier électronique et vont au cinéma avec des DVD ou des chaînes de streaming, la numérisation de ces activités réduit les émissions de carbone. L’IA devrait continuer à jouer un rôle à cet égard, par exemple en améliorant l’expérience des appels vidéo et en déplaçant davantage de réunions vers des sites distants. En outre, la technologie de l’IA peut être utilisée pour répartir les réseaux électriques et analyser les données climatiques, contribuant ainsi à lutter contre le changement climatique.


Évaluer avec précision la consommation d’énergie de

L'IA pour promouvoir le développement sain du domaine


Historiquement, les préoccupations concernant les émissions de carbone de l’IA ne sont pas nouvelles. Dans les années 90, on prévoyait que la moitié de la future production d’électricité serait utilisée pour alimenter l’activité Internet ; Au moment de l’avènement du streaming, des sentiments similaires ont été exprimés. Aujourd’hui, nous savons qu’aucune de ces craintes ne s’est concrétisée. Selon le rapport de l’ITIF, se précipiter pour contrôler l’IA sans une compréhension complète de ses problèmes de consommation d’énergie peut entraver l’amélioration des performances de l’IA et limiter son potentiel. Par exemple, permettre à l’IA d’éliminer les préjugés et les discours de haine et d’éviter de produire des informations nuisibles nécessite davantage d’inférences pour augmenter la consommation d’énergie.


Le rapport recommande qu’en réponse aux préoccupations du public concernant la consommation énergétique de l’IA, les décideurs politiques :


(1) Élaborer des normes correspondantes pour rendre la consommation d’énergie des modèles d’IA ouverte et transparente ;


(2) encourager l'industrie à divulguer de manière proactive les informations sur la consommation d'énergie des modèles d'IA afin que le public puisse faire des choix éclairés ;


(3) considérer les conséquences involontaires des réglementations sur l’IA sur la consommation d’énergie ;


(4) Utiliser l’IA pour décarboner les opérations gouvernementales.


Certaines organisations font déjà pression pour la divulgation de l’IA. En décembre 2023, l'Union européenne a adopté la loi sur l'intelligence artificielle, la première loi réglementaire sur l'IA au monde. Le projet de loi exhorte les développeurs d’IA à s’engager à rendre leurs modèles économes en énergie et durables, et exige en conséquence la divulgation d’informations.


GTP


De · a également appelé à la divulgation d'informations et il souhaitait limiter le développement de l'IA en temps opportun, tout comme il l'a fait pour la technologie des crypto-monnaies. 'Le développement de technologies émergentes telles que l'IA et la blockchain antérieure, accompagné de beaucoup de frénésie et de peur de manquer quelque chose (FOMO), conduit souvent à des applications qui ne présentent que peu d'avantages pour l'utilisateur final', note le blog Digiconomist. '


Et dans le rapport du New Yorker, la célèbre journaliste scientifique Elizabeth Kolbert (Elizabeth Kolbert) a déclaré : « Chaque fois que ChatGPT crache un message (ou écrit un essai de lycée pour quelqu'un), cela demande beaucoup de calculs. » On estime que ChatGPT répond à environ 200 millions de requêtes par jour tout en consommant plus de 500 000 kWh d'électricité. En d’autres termes, la réponse à la crise énergétique de l’IA pourrait commencer par limiter l’utilisation de l’IA pour l’emploi.


Entrer en contact

Produits connexes

le contenu est vide!

message de congé
Contactez-nous
Entrer en contact

Liens rapides

Catégorie de produit

Contactez-nous

WhatsApp : +86 151-1302-4743
Skype : lmxx515
Téléphone : +86 151-1302-4743
E-mail: info@fsoriginal.com
Adresse : salle 2812, bloc 8, bâtiment Aoyuan, route technologique n° 6 du Nord, ville de Shishan, district de Nanhai, ville de Foshan
Droits d'auteur © 2024 Foshan Original Import & Export Co., Ltd. Tous droits réservés Sitemap I politique de confidentialité