Potencial da indústria de IA para rivalizar com o consumo nacional de eletricidade
A rápida expansão da IA em 2022 e 2023, impulsionada pelo sucesso de OpenAI'S ChatGPT, levantou preocupações sobre o consumo de eletricidade e o impacto ambiental. O consumo de eletricidade dos centros de dados, que representa apenas 1% do consumo global de eletricidade, pode ter aumentado 6% entre 2010 e 2018. Este comentário examina o consumo de eletricidade da IA e as suas potenciais implicações, discutindo cenários pessimistas e otimistas e alertando contra a adoção de qualquer um dos extremos. .
IA, incluindo ferramentas generativas de IA como ChatGPT e OpenAIO DALL-E da empresa usa processamento de linguagem natural para criar novos conteúdos. A fase de treinamento, muitas vezes de uso intensivo de energia, envolve alimentar grandes conjuntos de dados e ajustar parâmetros para alinhar os resultados previstos com os resultados desejados. A fase de inferência, onde os modelos geram resultados, tem recebido pouca atenção na literatura. No entanto, a fase de inferência pode contribuir significativamente para os custos do ciclo de vida de um modelo de IA, com o Google afirmando que 60% do consumo de energia relacionado à IA provém de inferência.
Segundo o pesquisador Alex de Vries da Escola de Negócios e Economia de Amsterdã, o consumo de energia das empresas de IA poderá atingir proporções surpreendentes até 2027, comparáveis a nações inteiras como Argentina, Holanda e Suécia.
Relacionado: IA de treinamento e a crise da água: uma olhada na conexão surpreendente entre ChatGPT e Uso de Água |
De Vries baseia os seus cálculos nas entregas projetadas de servidores de IA pela líder de mercado Nvidia em 2023. As suas estimativas indicam um aumento substancial, de 100 mil servidores este ano para 1.5 milhões de servidores em 2027.
Supondo que estes servidores operem a plena capacidade, o seu consumo de energia aumentará dos actuais 6-9 terawatts-hora (TWh) anuais para uns espantosos 86-134 TWh anualmente até 2027. Para efeitos de perspectiva, a Suécia consome 125 TWh de energia todos os anos.
Além disso, se a Google transferisse hoje exclusivamente o seu serviço de pesquisa para algoritmos de IA, só os custos de energia ascenderiam a 29.3 TWh anuais, o equivalente ao consumo anual de energia da Irlanda.
De Vries reconhece que tal cenário permanece improvável, em parte porque a Nvidia enfrenta atualmente desafios no fornecimento da quantidade necessária de servidores de IA. A escassez destes servidores também se traduz em custos elevados. Por exemplo, a mudança teórica do Google para uma abordagem totalmente baseada em IA destruiria a margem operacional da empresa.
A operação do algoritmo de IA é financeiramente onerosa para as empresas e a monetização eficaz permanece indefinida. Paradoxalmente, à medida que o número de utilizadores aumenta, os custos da tecnologia aumentam em vez de diminuir. A Microsoft está tentando capitalizar o entusiasmo em torno da IA generativa para criar um mercado para esses serviços e ganhar dinheiro. No entanto, a empresa enfrentou perdas financeiras nos seus primeiros produtos generativos, como o Serviço GitHub Copilot, que perdeu de US$ 20 para US$ 80 por usuário. Para evitar isso, a Microsoft decidiu lançar complementos de IA para seus produtos populares, o que pode aumentar o custo do produto. Google e Microsoft também enfrentam dificuldades em monetizar serviços de IA devido aos elevados custos de manutenção. Empresas como Microsoft e Google exigem US$ 30 adicionais para manter modelos de IA. Os criadores do Zoom também estão tentando economizar dinheiro desenvolvendo seus próprios algoritmos e emprestando outros para tarefas complexas. A Adobe e outras empresas limitam o uso de redes neurais com base em planos tarifários. As empresas esperam que o custo dos modelos de IA diminua com o tempo, mas antes que isso aconteça, terão de gastar centenas de milhões de dólares.
Melhorias na eficiência do hardware, arquiteturas de modelos e algoritmos poderiam reduzir potencialmente o consumo de eletricidade relacionado à IA no longo prazo. Isto pode ser devido a Paradoxo de Jevons, onde o aumento da eficiência leva ao aumento da procura, conduzindo a um aumento líquido na utilização de recursos. Além disso, redirecionar GPUs para tarefas relacionadas à IA, como a “mineração 2.0” da Ethereum, poderia transferir 16.1 TWh do consumo anual de eletricidade para IA.
O consumo de eletricidade relacionado à IA é incerto, mas pode impulsionar aplicações como a Pesquisa Google. Contudo, as restrições de recursos podem limitar o crescimento. Os esforços para melhorar a eficiência da IA podem desencadear um efeito rebote, aumentando a procura de IA. Os desenvolvedores devem concentrar-se na otimização da IA e na consideração da sua necessidade, com os reguladores a considerar os requisitos de divulgação ambiental.
Aviso Legal
Em linha com a Diretrizes do Projeto Trust, observe que as informações fornecidas nesta página não se destinam e não devem ser interpretadas como aconselhamento jurídico, tributário, de investimento, financeiro ou qualquer outra forma. É importante investir apenas o que você pode perder e procurar aconselhamento financeiro independente se tiver alguma dúvida. Para mais informações, sugerimos consultar os termos e condições, bem como as páginas de ajuda e suporte fornecidas pelo emissor ou anunciante. MetaversePost está comprometida com relatórios precisos e imparciais, mas as condições de mercado estão sujeitas a alterações sem aviso prévio.
Sobre o autor
Damir é o líder de equipe, gerente de produto e editor da Metaverse Post, abordando tópicos como AI/ML, AGI, LLMs, Metaverse e Web3-Campos relacionados. Seus artigos atraem um grande público de mais de um milhão de usuários todos os meses. Ele parece ser um especialista com 10 anos de experiência em SEO e marketing digital. Damir foi mencionado em Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e outras publicações. Ele viaja entre os Emirados Árabes Unidos, Turquia, Rússia e CEI como um nômade digital. Damir formou-se em física, o que ele acredita ter lhe dado as habilidades de pensamento crítico necessárias para ter sucesso no cenário em constante mudança da internet.
Mais artigosDamir é o líder de equipe, gerente de produto e editor da Metaverse Post, abordando tópicos como AI/ML, AGI, LLMs, Metaverse e Web3-Campos relacionados. Seus artigos atraem um grande público de mais de um milhão de usuários todos os meses. Ele parece ser um especialista com 10 anos de experiência em SEO e marketing digital. Damir foi mencionado em Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e outras publicações. Ele viaja entre os Emirados Árabes Unidos, Turquia, Rússia e CEI como um nômade digital. Damir formou-se em física, o que ele acredita ter lhe dado as habilidades de pensamento crítico necessárias para ter sucesso no cenário em constante mudança da internet.