Le potentiel de l’industrie de l’IA pour rivaliser avec la consommation nationale d’électricité
L'expansion rapide de l'IA en 2022 et 2023, portée par le succès de OpenAI's ChatGPT, a soulevé des inquiétudes quant à la consommation d’électricité et à l’impact environnemental. La consommation électrique des centres de données, qui ne représente que 1 % de la consommation mondiale d’électricité, pourrait avoir augmenté de 6 % entre 2010 et 2018. Ce commentaire examine la consommation électrique de l’IA et ses implications potentielles, discutant de scénarios à la fois pessimistes et optimistes et mettant en garde contre l’adoption des deux extrêmes. .
L'IA, y compris les outils d'IA générative comme ChatGPT ainsi que le OpenAIDALL-E de , utilise le traitement du langage naturel pour créer du nouveau contenu. La phase de formation, souvent gourmande en énergie, consiste à alimenter de grands ensembles de données et à ajuster les paramètres pour aligner les résultats prévus sur les résultats cibles. La phase d'inférence, au cours de laquelle les modèles génèrent des résultats, a reçu peu d'attention dans la littérature. Cependant, la phase d'inférence peut contribuer de manière significative aux coûts du cycle de vie d'un modèle d'IA, Google affirmant que 60 % de la consommation d'énergie liée à l'IA provient de l'inférence.
Selon le chercheur Alex de Vries Selon la School of Business and Economics d'Amsterdam, la consommation d'énergie des entreprises d'IA pourrait atteindre des proportions stupéfiantes d'ici 2027, comparables à celles de pays entiers comme l'Argentine, les Pays-Bas et la Suède.
Services Connexes: L'IA de formation et la crise de l'eau : un regard sur le lien surprenant entre ChatGPT et consommation d'eau |
De Vries tire ses calculs des livraisons prévues de serveurs IA par le leader du marché Nvidia en 2023. Ses estimations indiquent une augmentation substantielle, de 100 1.5 serveurs cette année à 2027 million de serveurs d'ici XNUMX.
En supposant que ces serveurs fonctionnent à pleine capacité, leur consommation d'énergie passera de 6 à 9 térawattheures (TWh) par an actuellement à un chiffre stupéfiant de 86 à 134 TWh par an d'ici 2027. À titre de perspective, la Suède consomme 125 TWh d'énergie chaque année.
De plus, si Google devait aujourd'hui migrer exclusivement son service de recherche vers des algorithmes d'IA, les coûts énergétiques à eux seuls s'élèveraient à 29.3 TWh par an, soit l'équivalent de la consommation énergétique annuelle de l'Irlande.
De Vries reconnaît qu'un tel scénario reste improbable, en partie parce que Nvidia est actuellement confronté à des difficultés pour fournir la quantité requise de serveurs IA. La rareté de ces serveurs se traduit également par des coûts élevés. Par exemple, le passage théorique de Google à une approche entièrement basée sur l’IA anéantirait la marge opérationnelle de l’entreprise.
Le fonctionnement des algorithmes d’IA est financièrement lourd pour les entreprises, et une monétisation efficace reste insaisissable. Paradoxalement, à mesure que le nombre d’utilisateurs augmente, les coûts technologiques augmentent plutôt que diminuent. Microsoft tente de capitaliser sur le battage médiatique autour de l'IA générative pour créer un marché pour de tels services et gagner de l'argent. Cependant, l'entreprise a subi des pertes financières sur ses premiers produits génératifs, comme le Service copilote GitHub, qui a perdu de 20 à 80 dollars par utilisateur. Pour éviter cela, Microsoft a décidé de publier des modules complémentaires d'IA pour ses produits populaires, ce qui peut augmenter le coût du produit. Google et Microsoft sont également confrontés à des difficultés pour monétiser les services d'IA en raison des coûts de maintenance élevés. Des entreprises comme Microsoft et Google exigent 30 $ supplémentaires pour maintenir les modèles d’IA. Les créateurs de Zoom tentent également d'économiser de l'argent en développant leurs propres algorithmes et en en empruntant d'autres pour des tâches complexes. Adobe et d'autres sociétés limitent l'utilisation des réseaux de neurones en fonction des plans tarifaires. Les entreprises espèrent que le coût des modèles d’IA diminuera avec le temps, mais avant que cela ne se produise, elles devront dépenser des centaines de millions de dollars.
Des améliorations de l’efficacité matérielle, des architectures de modèles et des algorithmes pourraient potentiellement réduire la consommation électrique liée à l’IA à long terme. Cela pourrait être dû à Le paradoxe de Jevons, où l’augmentation de l’efficacité entraîne une augmentation de la demande, entraînant une augmentation nette de l’utilisation des ressources. De plus, la réutilisation des GPU pour des tâches liées à l'IA, telles que le « minage 2.0 » d'Ethereum, pourrait transférer 16.1 TWh de consommation électrique annuelle vers l'IA.
La consommation électrique liée à l’IA est incertaine, mais elle pourrait stimuler des applications comme la recherche Google. Toutefois, les contraintes en matière de ressources peuvent limiter la croissance. Les efforts visant à améliorer l’efficacité de l’IA pourraient déclencher un effet rebond, augmentant la demande en IA. Les développeurs devraient se concentrer sur l’optimisation de l’IA et prendre en compte sa nécessité, les régulateurs prenant en compte les exigences de divulgation environnementale.
Services Connexes: Coûts cachés de NFTs : Impact sur l'environnement et dommages écologiques |
Clause de non-responsabilité
En ligne avec la Lignes directrices du projet de confiance, veuillez noter que les informations fournies sur cette page ne sont pas destinées à être et ne doivent pas être interprétées comme des conseils juridiques, fiscaux, d'investissement, financiers ou toute autre forme de conseil. Il est important d’investir uniquement ce que vous pouvez vous permettre de perdre et de demander des conseils financiers indépendants en cas de doute. Pour plus d'informations, nous vous suggérons de vous référer aux conditions générales ainsi qu'aux pages d'aide et de support mises à disposition par l'émetteur ou l'annonceur. MetaversePost s'engage à fournir des rapports précis et impartiaux, mais les conditions du marché sont susceptibles de changer sans préavis.
A propos de l'auteur
Damir est chef d'équipe, chef de produit et rédacteur en chef chez Metaverse Post, couvrant des sujets tels que l'IA/ML, l'AGI, les LLM, le métaverse et Web3-domaines connexes. Ses articles attirent une audience massive de plus d'un million d'utilisateurs chaque mois. Il semble être un expert avec 10 ans d'expérience dans le référencement et le marketing numérique. Damir a été mentionné dans Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto et d'autres publications. Il voyage entre les Émirats arabes unis, la Turquie, la Russie et la CEI en tant que nomade numérique. Damir a obtenu un baccalauréat en physique, ce qui, selon lui, lui a donné les compétences de pensée critique nécessaires pour réussir dans le paysage en constante évolution d'Internet.
Plus d'articlesDamir est chef d'équipe, chef de produit et rédacteur en chef chez Metaverse Post, couvrant des sujets tels que l'IA/ML, l'AGI, les LLM, le métaverse et Web3-domaines connexes. Ses articles attirent une audience massive de plus d'un million d'utilisateurs chaque mois. Il semble être un expert avec 10 ans d'expérience dans le référencement et le marketing numérique. Damir a été mentionné dans Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto et d'autres publications. Il voyage entre les Émirats arabes unis, la Turquie, la Russie et la CEI en tant que nomade numérique. Damir a obtenu un baccalauréat en physique, ce qui, selon lui, lui a donné les compétences de pensée critique nécessaires pour réussir dans le paysage en constante évolution d'Internet.