Opinião Tecnologia
23 de agosto de 2023

Pesquisadores desafiam a noção de 'habilidades emergentes' de grandes modelos de linguagem

Em Breve

O apocalipse AGI é uma preocupação devido ao fenômeno de grandes modelos de linguagem repentinamente demonstrando habilidades que os modelos menores parecem não ter.

Este fenômeno é chamado de “habilidades emergentes de grandes modelos de linguagem”.

Os autores do artigo “As habilidades emergentes de grandes modelos de linguagem são uma miragem?” argumentam que o efeito das habilidades emergentes não é uma miragem, mas sim um crescimento previsível na capacidade de realizar tarefas.

Eles mostram que pelo menos 92% dos problemas do Big Bench não apresentam um avanço repentino para modelos grandes, e a qualidade de seus modelos cresce de maneira suave e previsível à medida que o tamanho dos modelos aumenta.

Num exame recente das capacidades potenciais de grandes modelos de linguagem, os investigadores desafiam a noção de “habilidades emergentes” e lançam luz sobre um aspecto mais previsível da sua funcionalidade. O artigo intitulado “Revelando a realidade das habilidades emergentes dos grandes modelos de linguagem” chama a atenção para a má interpretação das métricas que levou ao equívoco de que esses modelos adquirem competências avançadas espontaneamente.

Pesquisadores desafiam a noção de 'habilidades emergentes' de grandes modelos de linguagem
Crédito: Metaverse Post / Stable Diffusion

O conceito de "habilidades emergentes”no contexto de grandes modelos de linguagem, como o GPT série, alimentou preocupações sobre o potencial desses modelos para desenvolver capacidades imprevistas semelhantes à consciência humana. Este artigo afirma que essas suposições foram baseadas em uma compreensão falha do comportamento e das capacidades reais dos modelos.

O fenômeno comumente observado, onde modelos maiores aparentemente adquirem novas habilidades, como raciocínio abstrato, resolução de problemas e até humor, foi cunhado como “habilidades emergentes de modelos de linguagem grande”. Os autores do artigo afirmam que essas habilidades não são tão espontâneas quanto parecem, mas sim o resultado de métricas de avaliação enganosas.

Para ilustrar seu ponto, os pesquisadores consideram a tarefa de “adivinhar o enigma”, um problema em que o modelo de linguagem é obrigado a compreender um enigma de linguagem natural e responder com a resposta correta em linguagem natural. Tradicionalmente, a qualidade das respostas tem sido avaliada usando uma métrica binária: uma resposta recebe uma pontuação de 1 se corresponder exatamente à resposta correta e uma pontuação de 0 caso contrário.

O cerne da questão está na sensibilidade da métrica à complexidade da tarefa e ao número de parâmetros do modelo. Os pesquisadores revelam que esta métrica binária leva a um percepção enganosa de “habilidades emergentes”. Modelos menores geralmente exibem precisão insignificante (eps) nesta métrica, enquanto modelos maiores, especialmente aqueles com uma contagem alta de parâmetros, parecem atingir níveis de precisão notáveis ​​(acc > 0.5).

O artigo afirma que esta aparente mudança na capacidade não é indicativa de modelos que adquirem espontaneamente competências complexas. Em vez disso, a capacidade dos modelos para compreender e gerar respostas mais matizadas decorre de uma avaliação mais meticulosa dos seus resultados. Ao focar na correspondência probabilística e na coerência semântica, em vez de correspondências exatas de strings, os pesquisadores mostram que o progressão dos modelos no desempenho segue uma trajetória mais lógica, independentemente do seu tamanho.

Relacionado: A evolução dos chatbots da era T9 e GPT-1 para ChatGPT

Investigando a evolução do desempenho do modelo com alteração de parâmetros

Investigando a evolução do desempenho do modelo com alteração de parâmetros
Crédito: Metaverse Post / Stable Diffusion

Numa investigação analítica, os investigadores descobrem a mecânica subtil por detrás das “habilidades emergentes” percebidas grandes modelos de linguagem. O estudo questiona a influência das métricas superdiscretas na avaliação do desempenho do modelo e elucida uma compreensão mais preditiva de suas capacidades à medida que os parâmetros do modelo se expandem.

A noção predominante de “habilidades emergentes” em modelos linguísticos expansivos tem cativado discussões e levantado preocupações sobre possíveis avanços. Este estudo procura desvendar a mecânica subjacente a este fenómeno e decifrar se estes modelos apresentam de facto capacidades repentinas e sem precedentes ou se estes avanços percebidos podem ser atribuídos a uma causa diferente.

No centro do estudo está uma avaliação meticulosa das métricas empregadas para avaliar o desempenho do modelo. Os pesquisadores afirmam que o uso de métricas superdiscretas, particularmente a métrica binária convencional que determina correspondências exatas de strings, pode distorcer a interpretação de grandes números. habilidades de modelo de linguagem. O estudo analisa meticulosamente como a distribuição de probabilidade das respostas geradas pelo modelo evolui à medida que os parâmetros do modelo aumentam.

Contrariamente à noção de “capacidades emergentes”, o estudo revela uma tendência mais sistemática. À medida que o tamanho do modelo aumenta, melhora sua capacidade de atribuir probabilidades mais altas às respostas apropriadas e probabilidades mais baixas às incorretas. Isso reflete um aprimoramento consistente na capacidade do modelo de resolver problemas de maneira adequada em uma ampla variedade de tamanhos. Em essência, a pesquisa sugere que o processo de aprendizagem dos modelos segue um processo bemdefitrajetória precisa de melhoria, em vez de um salto repentino.

Os autores introduzem uma mudança de paradigma ao propor a substituição de métricas discretas por métricas contínuas. Essa mudança oferece uma imagem mais clara da evolução do desempenho. Através de suas análises, os pesquisadores constatam que aproximadamente 92% dos Grandes problemas de banco exibem um crescimento suave e previsível na qualidade à medida que o tamanho do modelo se expande. Esta descoberta desafia a noção de que modelos maiores experimentam avanços repentinos e, em vez disso, destaca uma progressão mais gradual e antecipada.

O estudo amplia seus insights para validar suas afirmações. Ele demonstra que o mesmo efeito de “capacidade emergente” pode ser simulado artificialmente usando autoencoders convencionais, sugerindo que a escolha das métricas influencia significativamente os resultados percebidos. Esta revelação amplia o âmbito das implicações do estudo, demonstrando a sua relevância para além dos modelos de linguagem apenas.

Os pesquisadores enfatizam que seus resultados não definegar nitivamente o potencial para “habilidades emergentes” ou consciência em grandes modelos de linguagem. No entanto, as suas descobertas encorajam os investigadores a abordar tais afirmações com uma perspectiva diferenciada. Em vez de extrapolar apressadamente e tirar conclusões extremas, o estudo sublinha a importância de uma investigação meticulosa e de uma análise abrangente.

Leia mais sobre IA:

Aviso Legal

Em linha com a Diretrizes do Projeto Trust, observe que as informações fornecidas nesta página não se destinam e não devem ser interpretadas como aconselhamento jurídico, tributário, de investimento, financeiro ou qualquer outra forma. É importante investir apenas o que você pode perder e procurar aconselhamento financeiro independente se tiver alguma dúvida. Para mais informações, sugerimos consultar os termos e condições, bem como as páginas de ajuda e suporte fornecidas pelo emissor ou anunciante. MetaversePost está comprometida com relatórios precisos e imparciais, mas as condições de mercado estão sujeitas a alterações sem aviso prévio.

Sobre o autor

Damir é o líder de equipe, gerente de produto e editor da Metaverse Post, abordando tópicos como AI/ML, AGI, LLMs, Metaverse e Web3-Campos relacionados. Seus artigos atraem um grande público de mais de um milhão de usuários todos os meses. Ele parece ser um especialista com 10 anos de experiência em SEO e marketing digital. Damir foi mencionado em Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e outras publicações. Ele viaja entre os Emirados Árabes Unidos, Turquia, Rússia e CEI como um nômade digital. Damir formou-se em física, o que ele acredita ter lhe dado as habilidades de pensamento crítico necessárias para ter sucesso no cenário em constante mudança da internet. 

Mais artigos
Damir Yalalov
Damir Yalalov

Damir é o líder de equipe, gerente de produto e editor da Metaverse Post, abordando tópicos como AI/ML, AGI, LLMs, Metaverse e Web3-Campos relacionados. Seus artigos atraem um grande público de mais de um milhão de usuários todos os meses. Ele parece ser um especialista com 10 anos de experiência em SEO e marketing digital. Damir foi mencionado em Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e outras publicações. Ele viaja entre os Emirados Árabes Unidos, Turquia, Rússia e CEI como um nômade digital. Damir formou-se em física, o que ele acredita ter lhe dado as habilidades de pensamento crítico necessárias para ter sucesso no cenário em constante mudança da internet. 

Hot Stories
Junte-se ao nosso boletim informativo.
Últimas notícias

Cresce apetite institucional por ETFs de Bitcoin em meio à volatilidade

As divulgações por meio de registros 13F revelam investidores institucionais notáveis ​​​​que se envolvem em ETFs Bitcoin, ressaltando uma aceitação crescente de ...

Saber Mais

Chega o dia da sentença: o destino de CZ está em equilíbrio enquanto o tribunal dos EUA considera o apelo do DOJ

Changpeng Zhao está prestes a ser condenado hoje em um tribunal dos EUA em Seattle.

Saber Mais
Junte-se à nossa comunidade tecnológica inovadora
Saiba Mais
Saiba mais
Nexo inicia 'The Hunt' para recompensar usuários com US$ 12 milhões em tokens NEXO por se envolverem com seu ecossistema
Mercados Relatório de notícias Tecnologia
Nexo inicia 'The Hunt' para recompensar usuários com US$ 12 milhões em tokens NEXO por se envolverem com seu ecossistema
8 de maio de 2024
Revolut X Exchange da Revolut atrai comerciantes de criptografia com taxas zero de fabricante e análises avançadas
Mercados Software Histórias e resenhas Tecnologia
Revolut X Exchange da Revolut atrai comerciantes de criptografia com taxas zero de fabricante e análises avançadas
8 de maio de 2024
Lisk faz transição oficial para Ethereum Layer 2 e revela Core v4.0.6
Relatório de notícias Tecnologia
Lisk faz transição oficial para Ethereum Layer 2 e revela Core v4.0.6
8 de maio de 2024
Novas moedas meme de maio de 2024: 7 escolhas para fãs de criptografia
Digerir Mercados Tecnologia
Novas moedas meme de maio de 2024: 7 escolhas para fãs de criptografia
8 de maio de 2024
CRYPTOMERIA LABS PTE. LTDA.