OpenAI: AI pode potencialmente causar muitos danos às pessoas, mas tentar impedir o progresso não é uma opção
Em Breve
OpenAIO documento “Planning for AGI and Beyond” da AGI sugere uma introdução gradual e lenta de modelos mais complexos e “inteligentes”, organizando auditorias independentes de grandes sistemas e limitando os recursos computacionais.
OpenAI deseja que a IA seja aberta a todos igualmente e crie soluções mais consistentes e modelos gerenciáveis para reduzir preconceitos e comportamentos indesejáveis.
OpenAI publicou recentemente um documento intitulado “Planning for AGI and Beyond”. Ele descreve as ideias gerais que orientam as ações da empresa à medida que o mundo se aproxima do desenvolvimento da AGI (inteligência artificial geral).
OpenAI acredita que, embora a IA tenha o potencial de causar danos significativos às pessoas, tentar travar o progresso não é uma opção. Como resultado, devemos aprender como manter esta melhoria para que não se deteriore significativamente.
O documento pode ser encontrado SUA PARTICIPAÇÃO FAZ A DIFERENÇA. Vamos destacar alguns elementos cruciais dele:
- OpenAI deseja que a AGI ajude as pessoas a prosperar em todos os aspectos de suas vidas, tanto econômica quanto cientificamente.
Em vez de criar uma grande IA superlegal e lançá-la imediatamente para o mundo, OpenAI introduzirá gradualmente modelos mais complicados e “inteligentes”. A suposição é que o aumento gradual das capacidades da IA não chocará o mundo, dando aos seres humanos tempo para se ajustarem, adaptarem a economia e criarem procedimentos para interagir com a IA. - OpenAI convida todas as organizações a adotarem formalmente o princípio acima mencionado (implementar gradualmente uma IA poderosa). Altman também recomenda limitar a quantidade de recursos computacionais que podem ser usados para treinar modelos e estabelecer auditorias imparciais dos principais sistemas antes de serem disponibilizados ao público em geral. Em vez de se envolver em competições como “quem será o primeiro a lançar um modelo maior e mais bacana?” OpenAI pede às empresas que trabalhar juntos para melhorar a segurança da IA.
- OpenAI acredita que é fundamental que os governos sejam informados sobre ações de formação que excedam uma determinada escala. Este é um conceito intrigante e gostaríamos de saber mais sobre o planos OpenAI tem a esse respeito. A princípio, essa proposta não me parece muito boa.
- OpenAI tentará desenvolver modelos que sejam mais confiáveis e controláveis, com maior probabilidade de limitar preconceitos e comportamentos desfavoráveis na IA. A abordagem adotada por OpenAI neste caso é disponibilizar o modelo ao público em geral de uma forma muito restrita, ao mesmo tempo que dá aos utilizadores a opção de personalizá-lo. Como os consumidores não poderão “personalizar” nada ali, não tenho certeza de como isso ajudará o modelo como um todo a se tornar menos tendencioso. A menos que isente a empresa de responsabilidade pelas ações do modelo.
No geral, o documento aponta no caminho certo. No entanto, houve um pequeno conflito entre “não mostraremos modelos legais imediatamente ao público, mas falaremos sobre eles para os estados” e “as pessoas devem saber sobre o progresso da IA.” Em suma, aguardaremos esclarecimentos detalhados por parte OpenAI em todos os tópicos.
Leia mais sobre IA:
Aviso Legal
Em linha com a Diretrizes do Projeto Trust, observe que as informações fornecidas nesta página não se destinam e não devem ser interpretadas como aconselhamento jurídico, tributário, de investimento, financeiro ou qualquer outra forma. É importante investir apenas o que você pode perder e procurar aconselhamento financeiro independente se tiver alguma dúvida. Para mais informações, sugerimos consultar os termos e condições, bem como as páginas de ajuda e suporte fornecidas pelo emissor ou anunciante. MetaversePost está comprometida com relatórios precisos e imparciais, mas as condições de mercado estão sujeitas a alterações sem aviso prévio.
Sobre o autor
Damir é o líder de equipe, gerente de produto e editor da Metaverse Post, abordando tópicos como AI/ML, AGI, LLMs, Metaverse e Web3-Campos relacionados. Seus artigos atraem um grande público de mais de um milhão de usuários todos os meses. Ele parece ser um especialista com 10 anos de experiência em SEO e marketing digital. Damir foi mencionado em Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e outras publicações. Ele viaja entre os Emirados Árabes Unidos, Turquia, Rússia e CEI como um nômade digital. Damir formou-se em física, o que ele acredita ter lhe dado as habilidades de pensamento crítico necessárias para ter sucesso no cenário em constante mudança da internet.
Mais artigosDamir é o líder de equipe, gerente de produto e editor da Metaverse Post, abordando tópicos como AI/ML, AGI, LLMs, Metaverse e Web3-Campos relacionados. Seus artigos atraem um grande público de mais de um milhão de usuários todos os meses. Ele parece ser um especialista com 10 anos de experiência em SEO e marketing digital. Damir foi mencionado em Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e outras publicações. Ele viaja entre os Emirados Árabes Unidos, Turquia, Rússia e CEI como um nômade digital. Damir formou-se em física, o que ele acredita ter lhe dado as habilidades de pensamento crítico necessárias para ter sucesso no cenário em constante mudança da internet.