El potencial de la industria de la IA para rivalizar con el consumo de electricidad nacional
La rápida expansión de la IA en 2022 y 2023, impulsada por el éxito de OpenAI, ChatGPT, ha planteado preocupaciones sobre el consumo de electricidad y el impacto medioambiental. El consumo de electricidad de los centros de datos, que representa solo el 1% del uso mundial de electricidad, puede haber aumentado un 6% entre 2010 y 2018. Este comentario examina el consumo de electricidad de la IA y sus posibles implicaciones, analiza escenarios tanto pesimistas como optimistas y advierte contra la adopción de cualquiera de los dos extremos. .
IA, incluidas herramientas de IA generativa como ChatGPT y OpenAIDALL-E, utiliza el procesamiento del lenguaje natural para crear contenido nuevo. La fase de capacitación, que a menudo consume mucha energía, implica alimentar grandes conjuntos de datos y ajustar parámetros para alinear los resultados previstos con los resultados objetivo. La fase de inferencia, donde los modelos generan resultados, ha recibido poca atención en la literatura. Sin embargo, la fase de inferencia puede contribuir significativamente a los costos del ciclo de vida de un modelo de IA; Google afirma que el 60% del consumo de energía relacionado con la IA proviene de la inferencia.
Según el investigador Alex de Vries Según la Escuela de Negocios y Economía de Ámsterdam, el consumo de energía de las empresas de IA podría alcanzar proporciones asombrosas para 2027, comparables a países enteros como Argentina, Países Bajos y Suecia.
Relacionado:: Entrenamiento de IA y la crisis del agua: una mirada a la sorprendente conexión entre ChatGPT y uso de agua |
De Vries deriva sus cálculos de las entregas proyectadas de servidores de IA por parte del líder del mercado Nvidia en 2023. Sus estimaciones indican un aumento sustancial, de 100 mil servidores este año a 1.5 millones de servidores en 2027.
Suponiendo que estos servidores funcionen a plena capacidad, su consumo de energía aumentará de los actuales 6 a 9 teravatios-hora (TWh) al año a la asombrosa cifra de 86 a 134 TWh al año en 2027. En perspectiva, Suecia consume 125 TWh de energía cada año.
Además, si Google hiciera la transición exclusiva de su servicio de búsqueda a algoritmos de IA hoy, los costos de energía por sí solos ascenderían a 29.3 TWh al año, equivalente al consumo de energía anual de Irlanda.
De Vries reconoce que tal escenario sigue siendo improbable, en parte porque Nvidia actualmente enfrenta desafíos para suministrar la cantidad necesaria de servidores de IA. La escasez de estos servidores también se traduce en costes elevados. Por ejemplo, el cambio teórico de Google hacia un enfoque totalmente basado en IA borraría el margen operativo de la empresa.
El funcionamiento del algoritmo de IA es financieramente oneroso para las empresas y la monetización efectiva sigue siendo difícil de alcanzar. Paradójicamente, a medida que crece el número de usuarios, los costos de la tecnología aumentan en lugar de disminuir. Microsoft está intentando capitalizar el revuelo en torno a la IA generativa para crear un mercado para dichos servicios y ganar dinero. Sin embargo, la empresa ha enfrentado pérdidas financieras en sus primeros productos generativos, como el Servicio de copiloto de GitHub, que perdió de 20 a 80 dólares por usuario. Para evitar esto, Microsoft ha decidido lanzar complementos de IA para sus productos populares, lo que puede aumentar el coste del producto. Google y Microsoft también enfrentan dificultades para monetizar los servicios de inteligencia artificial debido a los altos costos de mantenimiento. Empresas como Microsoft y Google exigen 30 dólares adicionales para mantener los modelos de IA. Los creadores de Zoom también están intentando ahorrar dinero desarrollando sus propios algoritmos y tomando prestados otros para tareas complejas. Adobe y otras empresas limitan el uso de redes neuronales según planes tarifarios. Las empresas esperan que el coste de los modelos de IA disminuya con el tiempo, pero antes de que eso suceda, tendrán que gastar cientos de millones de dólares.
Las mejoras en la eficiencia del hardware, las arquitecturas de modelos y los algoritmos podrían reducir potencialmente el consumo de electricidad relacionado con la IA a largo plazo. Esto podría deberse a Paradoja de Jevons, donde una mayor eficiencia conduce a una mayor demanda, lo que conduce a un aumento neto en el uso de recursos. Además, reutilizar las GPU para tareas relacionadas con la IA, como la “minería 2.0” de Ethereum, podría trasladar 16.1 TWh de consumo eléctrico anual a la IA.
El consumo de electricidad relacionado con la IA es incierto, pero podría impulsar aplicaciones como la Búsqueda de Google. Sin embargo, las limitaciones de recursos pueden limitar el crecimiento. Los esfuerzos por mejorar la eficiencia de la IA pueden desencadenar un efecto rebote, aumentando la demanda de IA. Los desarrolladores deberían centrarse en optimizar la IA y considerar su necesidad, y los reguladores deberían considerar los requisitos de divulgación ambiental.
Observación
En línea con la Directrices del Proyecto Confianza, tenga en cuenta que la información proporcionada en esta página no pretende ser ni debe interpretarse como asesoramiento legal, fiscal, de inversión, financiero o de cualquier otro tipo. Es importante invertir sólo lo que pueda permitirse perder y buscar asesoramiento financiero independiente si tiene alguna duda. Para mayor información sugerimos consultar los términos y condiciones así como las páginas de ayuda y soporte proporcionadas por el emisor o anunciante. MetaversePost se compromete a brindar informes precisos e imparciales, pero las condiciones del mercado están sujetas a cambios sin previo aviso.
Sobre el Autor
Damir es el líder del equipo, gerente de producto y editor en Metaverse Post, que cubre temas como AI/ML, AGI, LLM, Metaverse y Web3-campos relacionados. Sus artículos atraen una audiencia masiva de más de un millón de usuarios cada mes. Parece ser un experto con 10 años de experiencia en SEO y marketing digital. Damir ha sido mencionado en Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto y otras publicaciones. Viaja entre los Emiratos Árabes Unidos, Turquía, Rusia y la CEI como nómada digital. Damir obtuvo una licenciatura en física, que él cree que le ha dado las habilidades de pensamiento crítico necesarias para tener éxito en el panorama siempre cambiante de Internet.
Más artículosDamir es el líder del equipo, gerente de producto y editor en Metaverse Post, que cubre temas como AI/ML, AGI, LLM, Metaverse y Web3-campos relacionados. Sus artículos atraen una audiencia masiva de más de un millón de usuarios cada mes. Parece ser un experto con 10 años de experiencia en SEO y marketing digital. Damir ha sido mencionado en Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto y otras publicaciones. Viaja entre los Emiratos Árabes Unidos, Turquía, Rusia y la CEI como nómada digital. Damir obtuvo una licenciatura en física, que él cree que le ha dado las habilidades de pensamiento crítico necesarias para tener éxito en el panorama siempre cambiante de Internet.