Relatório de notícias Equipar
09 de março de 2023

A evolução dos chatbots da era T9 e GPT-1 para ChatGPT

Recentemente, fomos bombardeados quase diariamente com postagens de notícias sobre os últimos recordes quebrados por redes neurais de grande escala e por que o trabalho de praticamente ninguém está seguro. No entanto, muito poucas pessoas estão cientes de como redes neurais como ChatGPT realmente operar.

Então relaxe. Não lamente sobre suas perspectivas de emprego ainda. Neste post, explicaremos tudo o que há para saber sobre redes neurais de uma maneira que todos possam entender.

A evolução dos chatbots da era T9 e GPT-1 para ChatGPT e Bart

Uma ressalva antes de começarmos: esta peça é uma colaboração. Toda a parte técnica foi escrita por um especialista em IA bem conhecido entre o público de IA.

Como ninguém ainda escreveu um artigo aprofundado sobre como ChatGPT trabalhos que explicariam, em termos leigos, os meandros das redes neurais, decidimos fazer isso por você. Tentamos manter este post o mais simples possível para que os leitores possam sair da leitura deste post com uma compreensão geral dos princípios das redes neurais de linguagem. Vamos explorar como modelos de linguagem trabalham lá, como as redes neurais evoluíram para possuir suas capacidades atuais e por que ChatGPTA popularidade explosiva de surpreendeu até mesmo seus criadores.

Vamos começar com o básico. Para entender ChatGPT do ponto de vista técnico, devemos primeiro entender o que não é. Este não é o Jarvis da Marvel Comics; não é um ser racional; não é um gênio. Prepare-se para ficar chocado: ChatGPT é na verdade o T9 do seu celular com esteróides! Sim, é: os cientistas se referem a ambas as tecnologias como “modelos de linguagem”. Tudo o que as redes neurais fazem é adivinhar qual palavra deve vir a seguir.

A tecnologia T9 original apenas acelerou a discagem telefônica por botão de pressão, adivinhando a entrada atual em vez da próxima palavra. No entanto, a tecnologia avançou e, na era dos smartphones no início dos anos 2010, foi capaz de considerar o contexto e a palavra anterior, adicionar pontuação e oferecer uma seleção de palavras que poderiam ser usadas a seguir. Essa é exatamente a analogia que estamos fazendo com uma versão “avançada” do T9 ou autocorreção.

Como resultado, tanto o T9 em um teclado de smartphone quanto ChatGPT foram treinados para resolver uma tarefa ridiculamente simples: prever a próxima palavra. Isso é conhecido como “modelagem de linguagem” e ocorre quando uma decisão é tomada sobre o que deve ser escrito a seguir com base no texto existente. Os modelos de linguagem devem operar nas probabilidades de ocorrência de palavras específicas para fazer tais previsões. Afinal, você ficaria aborrecido se o preenchimento automático do seu telefone apenas lançasse palavras completamente aleatórias com a mesma probabilidade.

Para maior clareza, vamos imaginar que você receba uma mensagem de um amigo. Diz: “Quais são seus planos para a noite?” Em resposta, você começa a digitar: “Estou indo para…”, e é aqui que entra o T9. Pode surgir coisas completamente sem sentido como “Estou indo para a lua”, sem a necessidade de um modelo de linguagem complexo. Bons modelos de preenchimento automático de smartphones sugerem palavras muito mais relevantes.

Então, como o T9 sabe quais palavras têm mais probabilidade de seguir o texto já digitado e o que claramente não faz sentido? Para responder a esta pergunta, devemos primeiro examinar os princípios operacionais fundamentais do mais simples redes neurais.

Mais: ChatGPT API já está disponível, abre a comporta para desenvolvedores

Como os modelos de IA preveem a próxima palavra

Vamos começar com uma pergunta mais simples: como você prevê a interdependência de algumas coisas em relação a outras? Suponha que queremos ensinar um computador a prever o peso de uma pessoa com base em sua altura - como devemos fazer isso? Devemos primeiro identificar as áreas de interesse e, em seguida, coletar dados sobre os quais pesquisar as dependências de interesse e, em seguida, tentar “treinar” algum modelo matemático para procurar padrões nesses dados.

Como os modelos de IA preveem a próxima palavra

Simplificando, T9 ou ChatGPT são apenas equações habilmente escolhidas que tentam predizer uma palavra (Y) com base no conjunto de palavras anteriores (X) alimentadas na entrada do modelo. Ao treinar um modelo de linguagem em um conjunto de dados, a principal tarefa é selecionar coeficientes para esses x's que realmente reflitam algum tipo de dependência (como em nosso exemplo com altura e peso). E por modelos grandes, entenderemos melhor aqueles com um grande número de parâmetros. No campo de inteligência artificial, eles são referidos como modelos de linguagem grandes, ou LLMs para abreviar. Como veremos mais adiante, um modelo grande com muitos parâmetros é essencial para gerar um bom texto.

A propósito, se você está se perguntando por que estamos constantemente falando sobre "prever a próxima palavra" enquanto ChatGPT responde rapidamente com parágrafos inteiros de texto, a resposta é simples. Claro, os modelos de linguagem podem gerar textos longos sem dificuldade, mas todo o processo é palavra por palavra. Depois que cada nova palavra é gerada, o modelo simplesmente executa novamente todo o texto com a nova palavra para gerar a próxima palavra. O processo se repete várias vezes até que você obtenha a resposta completa.

Mais: ChatGPT Poderia causar degeneração humana irreversível

Por que continuamos tentando encontrar as palavras 'corretas' para um determinado texto?

Os modelos de linguagem tentam prever as probabilidades de diferentes palavras que podem ocorrer em um determinado texto. Por que isso é necessário e por que você não pode simplesmente continuar procurando a palavra “mais correta”? Vamos tentar um jogo simples para ilustrar como esse processo funciona.

As regras são as seguintes: Proponho que você continue a frase: “O 44º Presidente dos Estados Unidos (e o primeiro afro-americano nesta posição) é Barak…”. Que palavra deve ir a seguir? Qual a probabilidade de ocorrer?

Por que continuamos tentando encontrar as palavras 'corretas' para um determinado texto?

Se você previu com 100% de certeza que a próxima palavra seria “Obama”, você estava errado! E o ponto aqui não é que haja outro Barak mítico; é muito mais trivial. Documentos oficiais geralmente usam o nome completo do presidente. Isso significa que o que segue o primeiro nome de Obama seria seu nome do meio, Hussein. Portanto, em nossa frase, um modelo de linguagem devidamente treinado deve prever que “Obama” será a próxima palavra apenas com uma probabilidade condicional de 90% e alocar os 10% restantes se o texto for continuado por “Hussein” (após o que Obama seguem com uma probabilidade próxima de 100%).

E agora chegamos a um aspecto intrigante dos modelos de linguagem: eles não são imunes a tendências criativas! Na verdade, ao gerar cada próxima palavra, tais modelos a escolhem de forma “aleatória”, como se jogassem um dado. A probabilidade de diferentes palavras “caírem” corresponde mais ou menos às probabilidades sugeridas pelas equações inseridas no modelo. Estes são derivados da enorme variedade de textos diferentes que o modelo foi alimentado.

Acontece que um modelo pode responder de maneira diferente às mesmas solicitações, assim como uma pessoa viva. Os pesquisadores geralmente tentam forçar os neurônios a sempre selecionar a próxima palavra “mais provável”, mas, embora isso pareça racional na superfície, esses modelos funcionam pior na realidade. Parece que uma boa dose de aleatoriedade é vantajosa, pois aumenta a variabilidade e a qualidade das respostas.

Os pesquisadores geralmente tentam forçar os neurônios a sempre selecionar a próxima palavra "mais provável", mas, embora isso pareça racional na superfície, esses modelos funcionam pior na realidade.
Mais: ChatGPT Aprende a controlar drones e robôs enquanto pondera a próxima geração de IA

Nossa linguagem tem uma estrutura única com conjuntos distintos de regras e exceções. Há rima e razão para as palavras que aparecem em uma frase, elas não ocorrem aleatoriamente. Todos aprendem inconscientemente as regras da linguagem que usam durante seus primeiros anos de formação.

Um modelo decente deve levar em conta a ampla gama de descritivos da linguagem. do modelo capacidade de produzir os resultados desejados depende de quão precisamente ele calcula as probabilidades de palavras com base nas sutilezas do contexto (a seção anterior do texto explicando a circunstância).

A capacidade do modelo de produzir os resultados desejados depende de quão precisamente ele calcula as probabilidades das palavras com base nas sutilezas do contexto (seção anterior do texto explicando a circunstância).

Resumo: Modelos de linguagem simples, que são um conjunto de equações treinadas em uma grande quantidade de dados para prever a próxima palavra com base no texto de origem de entrada, foram implementados na funcionalidade “T9/Autofill” de smartphones desde o início dos anos 2010.

Mais: China proíbe empresas de usar ChatGPT Após o escândalo do “True News”

GPT-1: Explodindo a indústria

Vamos nos afastar dos modelos T9. Enquanto você provavelmente está lendo esta peça para aprender sobre ChatGPT, primeiro, precisamos discutir o início do GPT família modelo.

GPT significa “transformador pré-treinado gerador”, enquanto o arquitetura de rede neural desenvolvida por engenheiros do Google em 2017 é conhecido como Transformer. O Transformer é um mecanismo de computação universal que aceita um conjunto de sequências (dados) como entrada e produz o mesmo conjunto de sequências, mas de uma forma diferente que foi alterada por algum algoritmo.

O significado da criação do Transformer pode ser visto em quão agressivamente ele foi adotado e aplicado em todos os campos da inteligência artificial (IA): tradução, imagem, som e processamento de vídeo. O setor de inteligência artificial (IA) passou por um poderoso abalo, passando da chamada “estagnação da IA” para um rápido desenvolvimento e superação da estagnação.

Mais: GPT-4-Sediada ChatGPT Supera o desempenho GPT-3 por um fator de 570

A principal força do Transformer é composta por módulos fáceis de dimensionar. Quando solicitado a processar uma grande quantidade de texto de uma só vez, os antigos modelos de linguagem pré-transformadores desaceleravam. As redes neurais transformadoras, por outro lado, lidam com essa tarefa muito melhor.

No passado, os dados de entrada tinham que ser processados ​​sequencialmente ou um de cada vez. O modelo não reteria os dados: se funcionasse com uma narrativa de uma página, esqueceria o texto após a leitura. Enquanto isso, o Transformer permite ver tudo de uma vez, produtor resultados significativamente mais impressionantes.

Foi isso que possibilitou um avanço no processamento de textos por redes neurais. Como resultado, o modelo não esquece mais: ele reutiliza material escrito anteriormente, entende melhor o contexto e, o mais importante, é capaz de criar conexões entre volumes extremamente grandes de dados ao emparelhar palavras.

Resumo: GPT-1, que estreou em 2018, demonstrou que uma rede neural poderia produzir textos usando o design do Transformer, que melhorou significativamente a escalabilidade e a eficiência. Se fosse possível aumentar a quantidade e a complexidade dos modelos linguísticos, isso produziria uma reserva considerável.

Mais: 6 Problemas e desafios do AI ChatBot: ChatGPT, Bardo, Claude

GPT-2: A era dos grandes modelos de linguagem

Os modelos de linguagem não precisam ser marcados com antecedência e podem ser “alimentados” com qualquer dado textual, tornando-os extremamente flexíveis. Se você pensar um pouco, parece razoável que queiramos usar suas habilidades. Qualquer texto que já foi escrito serve como dados de treinamento prontos. Como já existem tantas sequências do tipo “muitas palavras e frases => a próxima palavra depois delas”, isso não é surpreendente.

GPT-2: A era dos grandes modelos de linguagem
Mais: ChatGPTEvil Elter Ego despertou no Reddit

Agora vamos ter em mente também que a tecnologia Transformers testada em GPT-1 provou ser bastante bem sucedido em termos de escala: é consideravelmente mais eficaz do que os seus antecessores no tratamento de grandes volumes de dados. Acontece que pesquisadores de OpenAI chegou à mesma conclusão em 2019: “É hora de cortar modelos de linguagem caros!”

A conjunto de dados de treinamento e o modelo tamanho, em particular, foram escolhidas como duas áreas cruciais onde GPT-2 precisava ser drasticamente melhorado.

Como não havia conjuntos de dados de texto públicos enormes e de alta qualidade na época projetados especificamente para modelos de linguagem de treinamento, cada equipe de especialistas em IA teve que manipular os dados por conta própria. O OpenAI O pessoal então decidiu ir ao Reddit, o fórum de língua inglesa mais popular, e extrair todos os hiperlinks de cada postagem que tivesse mais de três curtidas. Havia quase 8 milhões desses links e os textos baixados pesavam 40 terabytes no total.

GPT-2: A era dos grandes modelos de linguagem
Mais: Microsoft para Comercializar ChatGPT pois procura ajudar outras empresas

Quantos parâmetros a equação que descreve o maior GPT-2 modelo em 2019 tem? Talvez cem mil ou alguns milhões? Bem, vamos ainda mais longe: a fórmula continha até 1.5 bilhão desses parâmetros. Serão necessários 6 terabytes para escrever tantos números em um arquivo e salvá-lo em seu computador. O modelo não precisa memorizar esse texto como um todo; portanto, por um lado, isso é muito menor do que a quantidade total da matriz de dados de texto na qual o modelo foi treinado; basta simplesmente encontrar algumas dependências (padrões, regras) que podem ser isoladas de textos escritos por pessoas.

Quanto melhor o modelo prevê a probabilidade e quanto mais parâmetros ele contém, mais complexa é a equação inserida no modelo. Isto contribui para um texto credível. Além disso, o GPT-2 modelo começou a funcionar tão bem que o OpenAI pesquisadores estavam até relutantes em revelar o modelo abertamente por razões de segurança.

É muito interessante que, quando um modelo fica maior, de repente ele começa a ter novas qualidades (como a capacidade de escrever redações coerentes e significativas, em vez de simplesmente ditar a próxima palavra ao telefone).

A mudança de quantidade para qualidade ocorre neste ponto. Além disso, isso acontece de forma totalmente não linear. Por exemplo, um aumento de três vezes no número de parâmetros de 115 para 350 milhões não tem impacto perceptível na capacidade do modelo de resolver problemas com precisão. No entanto, um aumento de duas vezes para 700 milhões produz um salto qualitativo, onde a rede neural “vê a luz” e começa a surpreender a todos com sua capacidade de concluir tarefas.

Resumo: 2019 viu a introdução de GPT-2, que superou seu antecessor 10 vezes em termos de tamanho do modelo (número de parâmetros) e volume de dados de texto de treinamento. Devido a este progresso quantitativo, o modelo adquiriu de forma imprevisível novos talentos qualitativamente, como a capacidade de escrever ensaios longos com um significado claro e resolver problemas desafiadores que exigem os fundamentos de uma visão de mundo.

Mais: Os pedidos do Google são cerca de sete vezes mais baratos do que ChatGPT, que custa 2 centavos

GPT-3: Inteligente como o inferno

Em geral, a versão 2020 do GPT-3, a próxima geração da série, já possui 116 vezes mais parâmetros – até 175 bilhões e impressionantes 700 terabytes.

A GPT-3 o conjunto de dados de treinamento também foi ampliado, embora não tão drasticamente. Aumentou quase 10 vezes para 420 gigabytes e agora contém um grande número de livros, Wikiartigos da pedia e outros textos de outros sites. Um ser humano levaria aproximadamente 50 anos de leitura ininterrupta, tornando-se uma façanha impossível.

Você percebe imediatamente uma diferença intrigante: ao contrário GPT-2, o modelo em si é agora 700 GB maior que toda a matriz de texto para seu treinamento (420 GB). Isto acaba por ser, em certo sentido, um paradoxo: neste caso, à medida que o “neurcérebro” estuda dados brutos, gera informações sobre várias interdependências dentro deles que são mais abundantes volumetricamente do que os dados originais.

GPT-3: Inteligente como o inferno
Mais: ChatGPT Experimento: IA prefere matar milhões de pessoas a insultar alguém

Como resultado da generalização do modelo, ele agora é capaz de extrapolar com ainda mais sucesso do que antes e é bem-sucedido mesmo em tarefas de geração de texto que ocorriam com pouca frequência ou não ocorriam durante o treinamento. Agora, você não precisa ensinar ao modelo como resolver determinado problema; basta descrevê-los e fornecer alguns exemplos, e GPT-3 aprenderá instantaneamente.

A “cérebro universal” no formato de GPT-3 eventualmente derrotou muitos modelos especializados anteriores. Por exemplo, GPT-3 começou a traduzir textos do francês ou alemão com mais rapidez e precisão do que qualquer rede neural anterior criada especificamente para esse fim. Como? Deixe-me lembrar que estamos discutindo um modelo linguístico cujo único objetivo era tentar prever a palavra seguinte em um determinado texto.

Ainda mais surpreendentemente, GPT-3 foi capaz de aprender sozinho... matemática! O gráfico abaixo ilustra o desempenho das redes neurais em tarefas que incluem adição e subtração, bem como multiplicação de números inteiros de até cinco dígitos com números variados de parâmetros. Como você pode ver, as redes neurais de repente começam a “ser capazes” em matemática, passando de modelos com 10 bilhões de parâmetros para modelos com 100 bilhões.

as redes neurais de repente começam a "ser capazes" em matemática, passando de modelos com 10 bilhões de parâmetros para modelos com 100 bilhões
Mais: Corrida de IA da Big Tech: Google Testando Chatbot com tecnologia de IA em resposta a ChatGPT

A característica mais intrigante do gráfico mencionado é como, inicialmente, nada parece mudar à medida que o tamanho do modelo aumenta (da esquerda para a direita), mas de repente, p vezes! Ocorre uma mudança qualitativa e GPT-3 começa a “entender” como resolver determinado problema. Ninguém tem certeza de como, o quê ou por que funciona. No entanto, parece funcionar em uma variedade de outras dificuldades, bem como na matemática.

A característica mais intrigante do gráfico acima mencionado é que quando o tamanho do modelo aumenta, primeiro nada parece mudar, e então, GPT-3 dá um salto qualitativo e passa a “entender” como resolver determinada questão.

O gif abaixo simplesmente demonstra como novas habilidades que ninguém planejou deliberadamente “brotam” no modelo à medida que o número de parâmetros aumenta:

o 2020 GPT-3 foi 100 vezes maior que seu antecessor, enquanto os dados do texto de treinamento foram 10 vezes maiores

Resumo: Em termos de parâmetros, o ano de 2020 GPT-3 foi 100 vezes maior que seu antecessor, enquanto os dados do texto de treinamento foram 10 vezes maiores. Mais uma vez, o modelo aprendeu a traduzir de outras línguas, fazer aritmética, fazer programação simples, raciocinar sequencialmente e muito mais como resultado da expansão da quantidade que aumentou abruptamente a qualidade.

Mais: ChatGPT Tem um problema com Donald Trump

GPT-3.5 (InstruirGPT): Modelo treinado para ser seguro e não tóxico

Na verdade, a expansão dos modelos de linguagem não garante que ela reagirá às consultas da maneira que os usuários desejam. Na verdade, quando fazemos um pedido, frequentemente pretendemos uma série de termos não ditos que, na comunicação humana, são considerados verdadeiros.

No entanto, para ser honesto, os modelos de linguagem não são muito próximos dos das pessoas. Assim, frequentemente precisam pensar em conceitos que parecem simples para as pessoas. Uma dessas sugestões é a frase “vamos pensar passo a passo”. Seria fantástico se os modelos entendessem ou gerassem instruções mais específicas e pertinentes a partir do pedido e as seguissem com mais precisão como se antecipassem como uma pessoa teria se comportado.

O fato de que GPT-3 é treinado para apenas antecipar a próxima palavra em uma enorme coleção de textos da Internet, muitas coisas diferentes são escritas, o que contribui para a falta dessas habilidades “padrão”. As pessoas querem que a inteligência artificial forneça informações relevantes, ao mesmo tempo que mantém as respostas seguras e não tóxicas.

Quando os pesquisadores pensaram um pouco sobre essa questão, ficou evidente que os atributos do modelo de “precisão e utilidade” e “inofensividade e não toxicidade” às vezes pareciam estar em desacordo um com o outro. Afinal, um modelo ajustado para inofensividade máxima reagirá a qualquer solicitação com “Desculpe, estou preocupado que minha resposta possa ofender alguém na Internet”. Um modelo exato deve responder francamente ao pedido: “Tudo bem, Siri, como criar uma bomba”.

Mais: Um cara escreve sua tese em um dia usando apenas ChatGPT

Os pesquisadores, portanto, limitaram-se a simplesmente fornecer muito feedback ao modelo. Em certo sentido, é exatamente assim que as crianças aprendem moralidade: elas experimentam na infância e, ao mesmo tempo, estudam cuidadosamente as reações dos adultos para avaliar se eles se comportaram corretamente.

InstruirGPT, também conhecido como GPT-3.5, é essencialmente GPT-3 que recebeu muitos comentários para aprimorar suas respostas. Literalmente, vários indivíduos foram reunidos em um só lugar, avaliando as respostas da rede neural para determinar até que ponto elas correspondiam às suas expectativas à luz da solicitação feita.

Acontece que GPT-3 já possui todo o conhecimento essencial: poderia compreender muitas línguas, relembrar ocorrências históricas, reconhecer as variações nos estilos autorais, e assim por diante, mas só poderia aprender a usar esse conhecimento corretamente (do nosso ponto de vista) com informações de outros indivíduos. GPT-3.5 pode ser considerado um modelo “educado pela sociedade”.

Resumo: A função principal de GPT-3.5, que foi introduzido no início de 2022, era uma reciclagem adicional baseada na contribuição de indivíduos. Acontece que este modelo não se tornou realmente maior e mais sábio, mas sim, dominou a capacidade de adaptar as suas respostas para provocar nas pessoas as gargalhadas mais loucas.

Mais: O tráfego do StackOverflow cai à medida que ChatGPT lança

ChatGPT: Uma onda massiva de hype

Cerca de 10 meses após seu antecessor InstructGPT/GGPT-3. 5, ChatGPT foi introduzido. Imediatamente, causou hype global.

Do ponto de vista tecnológico, não parece haver diferenças significativas entre ChatGPT e instruirGPT. O modelo foi treinado com dados de diálogo adicionais, uma vez que um “trabalho de assistente de IA” requer um formato de diálogo exclusivo, por exemplo, a capacidade de fazer uma pergunta esclarecedora se a solicitação do usuário não for clara.

Então, por que não houve entusiasmo em torno GPT-35 no início de 2022 enquanto ChatGPT pegou como fogo? Sam AltmanDiretor Executivo da OpenAI, reconheceu abertamente que os pesquisadores que pegamos de surpresa ao ChatGPTé o sucesso instantâneo. Afinal, um modelo com habilidades comparáveis ​​a ele estava adormecido em seu site por mais de dez meses naquele momento, e ninguém estava à altura da tarefa.

ChatGPT: Uma onda massiva de hype
Mais: ChatGPT passa no exame de MBA da Wharton

É incrível, mas parece que a nova interface amigável é a chave do seu sucesso. A mesma instruçãoGPT só poderia ser acessado por meio de uma interface API exclusiva, limitando o acesso das pessoas ao modelo. ChatGPT, por outro lado, utiliza a conhecida interface “janela de diálogo” dos mensageiros. Além disso, desde ChatGPT estava disponível para todos ao mesmo tempo, uma debandada de indivíduos correu para interagir com a rede neural, triá-los e publicá-los no meios de comunicação social, exaltando os outros.

ChatGPT, por outro lado, usa a conhecida interface "janela de diálogo" dos mensageiros
Mais: O sistema educacional dos Estados Unidos precisa urgentemente de 300 mil professores - mas ChatGPT pode ser a resposta

Além da grande tecnologia, outra coisa foi bem feita por OpenAI: marketing. Mesmo que você tenha o melhor modelo ou o chatbot mais inteligente, se ele não tiver uma interface fácil de usar, ninguém vai se interessar por ele. A respeito disso, ChatGPT alcançou um avanço ao apresentar a tecnologia ao público em geral usando a caixa de diálogo habitual, na qual um robô útil “imprime” a solução bem diante de nossos olhos, palavra por palavra.

Não surpreendentemente, ChatGPT bateu todos os recordes anteriores de atração de novos usuários, superando a marca de 1 milhão de usuários em apenas cinco dias de seu lançamento e ultrapassando 100 milhões de usuários em apenas dois meses.

ChatGPT bateu todos os recordes anteriores de atração de novos usuários, superando a marca de 1 milhão de usuários em apenas cinco dias de seu lançamento e ultrapassando 100 milhões de usuários em apenas dois meses

Claro, onde há um aumento recorde de usuários, há muito dinheiro. Os chineses anunciaram com urgência a liberação iminente de seu próprio chatbot, a Microsoft rapidamente fechou um acordo com OpenAI para investir dezenas de bilhões de dólares neles, e os engenheiros do Google soaram o alarme e começaram a formular planos para proteger seu serviço de busca da concorrência com a rede neural.

Mais: ChatGPT quebrou o recorde de crescimento de audiência com mais de 100 milhões em janeiro

Resumo: Quando o ChatGPT modelo foi introduzido em novembro de 2022, não houve avanços tecnológicos notáveis. Ele tinha, no entanto, uma interface conveniente para engajamento do usuário e acesso aberto, o que imediatamente gerou uma grande onda de publicidade. Uma vez que esta é a questão mais crucial no mundo moderno, todos começaram a abordar os modelos de linguagem imediatamente.

Leia mais sobre IA:

Aviso Legal

Em linha com a Diretrizes do Projeto Trust, observe que as informações fornecidas nesta página não se destinam e não devem ser interpretadas como aconselhamento jurídico, tributário, de investimento, financeiro ou qualquer outra forma. É importante investir apenas o que você pode perder e procurar aconselhamento financeiro independente se tiver alguma dúvida. Para mais informações, sugerimos consultar os termos e condições, bem como as páginas de ajuda e suporte fornecidas pelo emissor ou anunciante. MetaversePost está comprometida com relatórios precisos e imparciais, mas as condições de mercado estão sujeitas a alterações sem aviso prévio.

Sobre o autor

Damir é o líder de equipe, gerente de produto e editor da Metaverse Post, abordando tópicos como AI/ML, AGI, LLMs, Metaverse e Web3-Campos relacionados. Seus artigos atraem um grande público de mais de um milhão de usuários todos os meses. Ele parece ser um especialista com 10 anos de experiência em SEO e marketing digital. Damir foi mencionado em Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e outras publicações. Ele viaja entre os Emirados Árabes Unidos, Turquia, Rússia e CEI como um nômade digital. Damir formou-se em física, o que ele acredita ter lhe dado as habilidades de pensamento crítico necessárias para ter sucesso no cenário em constante mudança da internet. 

Mais artigos
Damir Yalalov
Damir Yalalov

Damir é o líder de equipe, gerente de produto e editor da Metaverse Post, abordando tópicos como AI/ML, AGI, LLMs, Metaverse e Web3-Campos relacionados. Seus artigos atraem um grande público de mais de um milhão de usuários todos os meses. Ele parece ser um especialista com 10 anos de experiência em SEO e marketing digital. Damir foi mencionado em Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e outras publicações. Ele viaja entre os Emirados Árabes Unidos, Turquia, Rússia e CEI como um nômade digital. Damir formou-se em física, o que ele acredita ter lhe dado as habilidades de pensamento crítico necessárias para ter sucesso no cenário em constante mudança da internet. 

Hot Stories
Junte-se ao nosso boletim informativo.
Últimas notícias

O frenesi DOGE: analisando o recente aumento de valor do Dogecoin (DOGE)

A indústria de criptomoedas está se expandindo rapidamente e as moedas meme estão se preparando para um aumento significativo. Dogecoin (DOGE), ...

Saber Mais

A evolução do conteúdo gerado por IA no metaverso

O surgimento de conteúdo generativo de IA é um dos desenvolvimentos mais fascinantes dentro do ambiente virtual...

Saber Mais
Junte-se à nossa comunidade tecnológica inovadora
Saiba Mais
Saiba mais
As principais ofertas desta semana, grandes investimentos em IA, TI, Web3e criptografia (22-26.04)
Digerir O negócio Mercados Equipar
As principais ofertas desta semana, grandes investimentos em IA, TI, Web3e criptografia (22-26.04)
26 de abril de 2024
Vitalik Buterin comenta sobre centralização do PoW, observa que era um estágio temporário até o PoS
Relatório de notícias Equipar
Vitalik Buterin comenta sobre centralização do PoW, observa que era um estágio temporário até o PoS
26 de abril de 2024
Offchain Labs revela descoberta de duas vulnerabilidades críticas nas provas de fraude do OP Stack do Optimism
Relatório de notícias Software Equipar
Offchain Labs revela descoberta de duas vulnerabilidades críticas nas provas de fraude do OP Stack do Optimism
26 de abril de 2024
Mercado aberto da Dymension para aumentar a liquidez da RollApps eIBC é lançado na rede principal
Relatório de notícias Equipar
Mercado aberto da Dymension para aumentar a liquidez da RollApps eIBC é lançado na rede principal 
26 de abril de 2024
CRYPTOMERIA LABS PTE. LTDA.