O relatório de benchmark de treinamento da MLPerf revela que Nvidia, Intel e Google competem pelo domínio da IA generativa
Em Breve
O recente relatório de benchmark MLPerf Training 3.1 forneceu uma breve visão da intensa competição de IA entre Nvidia, Intel e Google.
O campo da inteligência artificial (IA) está a passar por uma mudança sísmica e grandes intervenientes como a Nvidia, a Intel e a Google estão a correr para estar na vanguarda desta revolução.
A recente Benchmarks do treinamento MLPerf 3.1 forneceram uma breve visão da intensa competição entre esses gigantes da tecnologia, mostrando ganhos sem precedentes no treinamento em modelos de linguagem grande (LLM).
No primeiro trimestre de 2023, Nvidia, Intel e Google revelaram seus sistemas de rede neural de IA para tarefas de aprendizagem profunda. No final do ano, o relatório mostra que as empresas aplicaram testes para demonstrar os seus níveis de desempenho.
Os benchmarks MLPerf tornaram-se recentemente um campo de batalha para demonstrar avanços no treinamento LLM. Anteriormente dominado por Previsões da Lei de Moore, a indústria da IA está agora a expandir o hardware e o software a um ritmo que ultrapassa as projeções tradicionais.
Vários especialistas afirmam que a Lei de Moore está lentamente se desfazendo, portanto, espera-se que novas descobertas da Nvidia, Intel e Google sejam úteis.
Domínio do supercomputador EOS da Nvidia
A Nvidia, forte no cenário da IA, revelou recentemente seu supercomputador EOS, uma maravilha tecnológica com 10,752 GPUs conectadas via Nvidia Banda Infinita Quantum-2. Nos benchmarks MLPerf Training 3.1, a Nvidia alcançou uma melhoria surpreendente de 2.8 vezes na velocidade de treinamento LLM para seu GPT-3 modelo desde junho.
As tarefas incluíram resumo, tradução, classificação e geração de novos conteúdos, como código de computador, textos de marketing, poesia e muito mais.
As especificações alucinantes do sistema EOS, incluindo mais de 40 exaflops de computação de IA, sublinham o compromisso da Nvidia em ultrapassar os limites da IA.
Avanço do acelerador Gaudi 2 da Intel
A Intel fez avanços significativos com seu Acelerador Habana Gaudi 2, aproveitando uma combinação de técnicas, incluindo o uso de tipos de dados de ponto flutuante de 8 bits (FP8).
Os resultados falam por si, com um notável aumento de 103% no desempenho da velocidade de treinamento em relação aos benchmarks MLPerf de junho. O foco estratégico da Intel em métricas de preço-desempenho a posiciona como um concorrente formidável no cenário de treinamento em IA.
“Projetamos um ganho de 90% com a ativação do 8º PQ”, disse Eitan Medina, diretor de operações do Habana Labs da Intel. “Entregamos mais do que o prometido: uma redução de 103% no tempo de treinamento para um cluster de 384 aceleradores.”
Cloud TPU v5e e recursos de escalonamento do Google
Da mesma forma, o Google com seu Nuvem TPU v5e, entrou na competição apresentando suas capacidades de escalonamento. Utilizando o FP8 para um desempenho de treinamento ideal, o Google destacou sua tecnologia de escalonamento multislice, permitindo um escalonamento impressionante de até 1,024 nós com 4,096 chips TPU v5e.
O compromisso da Google com o dimensionamento eficiente posiciona-a atualmente como um ator-chave na corrida pelo domínio da IA, uma vez que a empresa nunca para de otimizar o seu software.
A intensa competição entre Nvidia, Intel e Google na área de treinamento em IA está remodelando o futuro da inteligência artificial. À medida que ultrapassam os limites da formação LLM, estes gigantes da tecnologia não só estão a exceder as previsões da Lei de Moore, mas também a impulsionar a indústria para territórios desconhecidos.
Os resultados desta competição influenciarão, sem dúvida, a trajetória do desenvolvimento da IA e abrirão caminho para avanços transformadores neste campo.
Aviso Legal
Em linha com a Diretrizes do Projeto Trust, observe que as informações fornecidas nesta página não se destinam e não devem ser interpretadas como aconselhamento jurídico, tributário, de investimento, financeiro ou qualquer outra forma. É importante investir apenas o que você pode perder e procurar aconselhamento financeiro independente se tiver alguma dúvida. Para mais informações, sugerimos consultar os termos e condições, bem como as páginas de ajuda e suporte fornecidas pelo emissor ou anunciante. MetaversePost está comprometida com relatórios precisos e imparciais, mas as condições de mercado estão sujeitas a alterações sem aviso prévio.
Sobre o autor
Anya é uma redatora de TI experiente e apaixonada por explorar tópicos de ponta na indústria de tecnologia, incluindo IA generativa, Web3 gamificação e grandes modelos de linguagem (LLMs). Formada em interpretação, ela possui uma combinação única de conhecimento linguístico e perspicácia técnica. Sua mente curiosa e sua vasta experiência permitem que ela navegue no cenário em constante evolução da inovação tecnológica. Anya se dedica a descobrir insights e tendências em diversos segmentos linguísticos da Internet, trazendo uma perspectiva visionária ao seu trabalho. Através dos seus artigos, ela pretende colmatar a lacuna entre conceitos complexos de TI e um público global, tornando a tecnologia acessível e envolvente para leitores de todo o mundo.
Mais artigosAnya é uma redatora de TI experiente e apaixonada por explorar tópicos de ponta na indústria de tecnologia, incluindo IA generativa, Web3 gamificação e grandes modelos de linguagem (LLMs). Formada em interpretação, ela possui uma combinação única de conhecimento linguístico e perspicácia técnica. Sua mente curiosa e sua vasta experiência permitem que ela navegue no cenário em constante evolução da inovação tecnológica. Anya se dedica a descobrir insights e tendências em diversos segmentos linguísticos da Internet, trazendo uma perspectiva visionária ao seu trabalho. Através dos seus artigos, ela pretende colmatar a lacuna entre conceitos complexos de TI e um público global, tornando a tecnologia acessível e envolvente para leitores de todo o mundo.