AGI aparecerá em 1.5 anos, diz David Shapiro
Em Breve
Espera-se que a inteligência geral artificial apareça em 1.5 anos devido a uma combinação de muito dinheiro, estruturas abertas e transformação de LLMs em agentes cognitivos.
A análise de vídeo de David Shapiro sugere que esse tempo pode ser suficiente para o aparecimento de AGI.
O ponto de virada já passou e o AGI aparecerá em 1.5 anos. Uma combinação de muito dinheiro, estruturas abertas e transformação de LLMs em agentes cognitivos funcionará. Uma análise de vídeo publicada ontem por um colega, David Shapiro, é muito interessante com uma visão estereoscópica do que está acontecendo, levando em consideração três fatores nem todos óbvios.
De fato, se combinarmos a influência potencial dos três fatores nomeados por David no desenvolvimento da IA nos próximos 1.5 anos, esse tempo pode ser suficiente para o surgimento da AGI no planeta.
Para evitar disputas terminológicas vazias, esclareceremos imediatamente.
- Existem dezenas de defidefinições de “inteligência geral artificial” — muitas das quais são bastante diferentes e frequentemente contraditórias, necessitando de esclarecimento iterativo (ou mesmo recursivo) dos conceitos usados nessas definições.
- Portanto, é melhor deixar as disputas terminológicas para os filósofos e simplesmente usar o “critério do pato”: se a IA como um agente inteligente é capaz de se parecer com uma pessoa aos olhos das pessoas, realizar qualquer trabalho intelectual como pessoas e agir em situações que são novos para ele como as pessoas agiriam em seu lugar, consideraremos que essa IA é inteligência artificial geral (AGI).
- que a frase “AGI aparecerá em 1.5 anos” significa que haverá uma IA que satisfará o “critério do pato” mencionado acima.
O argumento de David Shapiro de que um ano e meio é suficiente para criar AGI baseia-se em três bases.
1) As empresas acreditam que a IA pode realmente fazer maravilhas. E, portanto, nos próximos 18 meses, grandes investimentos serão injetados no desenvolvimento da IA para reduzir radicalmente o preço da “inferência inteligente” para o usuário final (por exemplo, em seu smartphone) devido ao custo muito alto de treinamento de grandes modelos. David dá um bom exemplo do relatório Morgan Stanley: "Nós pensamos GPT 5 está atualmente treinando em GPUs de 25K – hardware NVIDIA no valor de US$ 225 milhões ou mais – e os custos de inferência são provavelmente muito mais baixos do que alguns dos números que vimos.”
2) Frameworks para desenvolvimento de aplicações baseadas em modelos de linguagem, por exemplo, LangChain, não apenas permitem que você acesse o modelo de linguagem por meio da API, mas também:
– permitir que o modelo esteja ciente dos dados: conecte o modelo de linguagem a outras fontes de dados;
– permitem que você transforme o modelo em um agente; permitem que ele interaja com o ambiente.
3) Já foram desenvolvidos paradigmas sistêmicos (por exemplo, MM-REACT) que combinam ChatGPT com um grupo de especialistas para alcançar pensamento multimodal e ação para resolver problemas complexos problemas de compreensão. Dentro de tal paradigma, será possível criar fluxos de ação cognitiva, o processo de gerar respostas aos usuários por meio de uma combinação de ChatGPT raciocínio e ações periciais.
Se todos esses três fatores: inferência intelectual barata, transformar um modelo em um agente e gerar fluxos de ação cognitiva funcionarem, então, em 18 meses, não estaremos mais discutindo sobre o definições de AGI porque simplesmente não importa mais à luz das competências adquiridas pela IA.
E essas competências serão tão humanas e inclusivas que não será mais um problema encontrar uma definição para esta AGI.
Leia mais artigos relacionados:
Aviso Legal
Em linha com a Diretrizes do Projeto Trust, observe que as informações fornecidas nesta página não se destinam e não devem ser interpretadas como aconselhamento jurídico, tributário, de investimento, financeiro ou qualquer outra forma. É importante investir apenas o que você pode perder e procurar aconselhamento financeiro independente se tiver alguma dúvida. Para mais informações, sugerimos consultar os termos e condições, bem como as páginas de ajuda e suporte fornecidas pelo emissor ou anunciante. MetaversePost está comprometida com relatórios precisos e imparciais, mas as condições de mercado estão sujeitas a alterações sem aviso prévio.
Sobre o autor
Damir é o líder de equipe, gerente de produto e editor da Metaverse Post, abordando tópicos como AI/ML, AGI, LLMs, Metaverse e Web3-Campos relacionados. Seus artigos atraem um grande público de mais de um milhão de usuários todos os meses. Ele parece ser um especialista com 10 anos de experiência em SEO e marketing digital. Damir foi mencionado em Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e outras publicações. Ele viaja entre os Emirados Árabes Unidos, Turquia, Rússia e CEI como um nômade digital. Damir formou-se em física, o que ele acredita ter lhe dado as habilidades de pensamento crítico necessárias para ter sucesso no cenário em constante mudança da internet.
Mais artigosDamir é o líder de equipe, gerente de produto e editor da Metaverse Post, abordando tópicos como AI/ML, AGI, LLMs, Metaverse e Web3-Campos relacionados. Seus artigos atraem um grande público de mais de um milhão de usuários todos os meses. Ele parece ser um especialista com 10 anos de experiência em SEO e marketing digital. Damir foi mencionado em Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e outras publicações. Ele viaja entre os Emirados Árabes Unidos, Turquia, Rússia e CEI como um nômade digital. Damir formou-se em física, o que ele acredita ter lhe dado as habilidades de pensamento crítico necessárias para ter sucesso no cenário em constante mudança da internet.