Kissinger pede colaboração EUA-China para prevenir catástrofe de IA
Numa carta aberta publicada no Foreign Affairs, os pesos-pesados políticos Henry Kissinger e Graham Allison endereçado O Presidente Biden e o Presidente Chinês Xi Jinping, apelando a ações conjuntas imediatas para evitar uma catástrofe global iminente.
Há três anos, surgiu uma previsão surpreendente: o mundo enfrentava a assustadora possibilidade de escapar à Armadilha de Tucídides mas ao custo perigoso de uma parceria com implicações profundas. Esta previsão, originada do ensaio de Allison, “A China realmente superará a América na corrida pela IA?”foi baseado na análise de duas alternativas rígidas:
- A corrida à IA poderá mergulhar os Estados Unidos e a China na “armadilha Fukidid” – o caminho inexorável para uma guerra total entre a superpotência reinante e o seu desafiante que ameaça tomar o trono.
- Alternativamente, os Estados Unidos e, por extensão, todo o mundo democrático ocidental, poderiam adoptar uma nova estrutura social, semelhante ao irmão mais velho global chinês, como uma solução tanto para a resistência interna como para a estabilidade global.
Em 2021, a Comissão de Segurança Nacional dos EUA, liderada pelo ex-diretor da Alphabet, Eric Schmidt, e pelo ex-secretário de Defesa dos EUA, Boba Warcom, aconselhou os Estados Unidos a não abandonarem as liberdades ocidentais devido a um potencial “casamento no inferno” com a China.
No entanto, a Revolução de IA generativa em 2023 obrigou um grupo de consultores políticos influentes e líderes tecnológicos, incluindo Schmidt, Warc e Allison, a reavaliar as suas recomendações.
Em uma carta aberta assinada por Kissinger, eles revelam como a IA poderia trazer consequências catastróficas para os Estados Unidos e para todo o mundo. Estão tão convencidos destas perspectivas que praticamente imploram aos líderes governamentais que tomem medidas o mais rapidamente possível.
Eles acreditam que a IA não é apenas mais um capítulo na história das armas nucleares. É muito mais arriscado do que isso! O perigos potenciais da IA podem realmente superar os das armas nucleares.
A IA e as armas nucleares podem ter semelhanças, mas também apresentam algumas diferenças bastante importantes. Portanto, não podemos simplesmente confiar nas mesmas velhas soluções que funcionaram para as armas nucleares. Precisamos criar algo novo e inovador.
Todas aquelas propostas sobre interromper o desenvolvimento da IA, interrompê-lo completamente ou ter algum órgão governamental global para controlá-lo? São basicamente ideias recicladas da era nuclear que não deram muito certo. Por que? Porque exigem que os países abram mão da sua própria soberania. E convenhamos, ninguém quer fazer isso.
Aqui está a realidade: existem apenas dois superpoderes no jogo de IA no momento, e são eles que podem potencialmente minimizar os riscos. Mas aqui está o chute: a janela para o desenvolvimento de diretrizes para evitar as conquistas e aplicações mais perigosas da IA está se fechando rapidamente. Estamos falando de uma situação do tipo pisque e você sentirá falta. Então, é hora de agir.
Conseqüentemente, Presidente biden e o Presidente chinês, Xi Jinping, devem aproveitar o momento e iniciar esforços de colaboração para enfrentar os riscos da IA, possivelmente convocando uma cimeira após a reunião de Cooperação Ásia-Pacífico, em Novembro.
Aviso Legal
Em linha com a Diretrizes do Projeto Trust, observe que as informações fornecidas nesta página não se destinam e não devem ser interpretadas como aconselhamento jurídico, tributário, de investimento, financeiro ou qualquer outra forma. É importante investir apenas o que você pode perder e procurar aconselhamento financeiro independente se tiver alguma dúvida. Para mais informações, sugerimos consultar os termos e condições, bem como as páginas de ajuda e suporte fornecidas pelo emissor ou anunciante. MetaversePost está comprometida com relatórios precisos e imparciais, mas as condições de mercado estão sujeitas a alterações sem aviso prévio.
Sobre o autor
Damir é o líder de equipe, gerente de produto e editor da Metaverse Post, abordando tópicos como AI/ML, AGI, LLMs, Metaverse e Web3-Campos relacionados. Seus artigos atraem um grande público de mais de um milhão de usuários todos os meses. Ele parece ser um especialista com 10 anos de experiência em SEO e marketing digital. Damir foi mencionado em Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e outras publicações. Ele viaja entre os Emirados Árabes Unidos, Turquia, Rússia e CEI como um nômade digital. Damir formou-se em física, o que ele acredita ter lhe dado as habilidades de pensamento crítico necessárias para ter sucesso no cenário em constante mudança da internet.
Mais artigosDamir é o líder de equipe, gerente de produto e editor da Metaverse Post, abordando tópicos como AI/ML, AGI, LLMs, Metaverse e Web3-Campos relacionados. Seus artigos atraem um grande público de mais de um milhão de usuários todos os meses. Ele parece ser um especialista com 10 anos de experiência em SEO e marketing digital. Damir foi mencionado em Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e outras publicações. Ele viaja entre os Emirados Árabes Unidos, Turquia, Rússia e CEI como um nômade digital. Damir formou-se em física, o que ele acredita ter lhe dado as habilidades de pensamento crítico necessárias para ter sucesso no cenário em constante mudança da internet.