AI Wiki Equipar
18 de maio de 2023

10 principais IA e ChatGPT Riscos e perigos em 2023

Com os avanços da inteligência artificial (IA) e da tecnologia chatbot, mais empresas estão buscando soluções automatizadas de atendimento ao cliente como forma de melhorar a experiência do cliente e reduzir custos indiretos. Embora existam muitos benefícios em alavancar modelos de IA e soluções de chatbot, também permanecem vários riscos e perigos associados à tecnologia, principalmente à medida que eles se tornam mais difundidos e integrados em nossas vidas diárias na próxima década.

Esta semana, todos no Senado dos EUA ouviram Sam Altman falar sobre a regulamentação e os riscos dos modelos de IA. Aqui está um resumo básico:

Armas biológicas

Armas biológicas
@Midjourney

O uso de Inteligência Artificial (AI) no desenvolvimento de armas biológicas apresenta uma forma perigosamente metódica e eficiente de criar armas de destruição em massa poderosas e letais. ChatGPT bots são assistentes de conversação orientados por IA que são capazes de manter conversas realistas com humanos. A preocupação com ChatGPT bots é que eles têm o potencial de serem usados ​​para espalhar informações falsas e manipular mentes a fim de influenciar opinião pública.

Alertei sobre o possível uso indevido da IA ​​na criação de armas biológicas e enfatizei a necessidade de regulamentação para evitar tais cenários.

Sam Altman

A regulamentação é um componente chave para prevenir o uso indevido de IA e ChatGPT bots no desenvolvimento e implantação de armas biológicas. Os governos precisam desenvolver planos de ação nacionais para lidar com o potencial uso indevido da tecnologia, e as empresas devem ser responsabilizadas por qualquer potencial uso indevido de seus AI e ChatGPT bots. Organizações internacionais devem investir em iniciativas com foco em treinamento, monitoramento e educação em IA e ChatGPT bots.

Perda de emprego

Perda de emprego
@Midjourney

O potencial de perda de empregos devido à IA e ChatGPT em 2023 é projetado para ser três vezes mais do que em 2020. IA e ChatGPT pode levar ao aumento da insegurança no local de trabalho, considerações éticas e impacto psicológico nos trabalhadores. IA e ChatGPT pode ser usado para monitorar o comportamento e as atividades dos funcionários, permitindo que os empregadores tomem decisões rapidamente e sem exigir o envolvimento de pessoal humano. Além disso, IA e ChatGPT pode causar decisões injustas e tendenciosas que podem levar à insegurança financeira, social e emocional no local de trabalho.

Enfatizei que o desenvolvimento da IA ​​poderia levar a perdas significativas de empregos e aumento da desigualdade.

Sam Altman

Regulamento de IA

Regulamento de IA
@Midjourney

Este artigo explora a riscos potenciais e perigos em torno da IA ​​e ChatGPT regulamentação em 2023. IA e ChatGPT técnicas pode ser usado para realizar atividades potencialmente maliciosas, como traçar perfis de pessoas com base em seus comportamentos e atividades. A falta de adequada Regulamento da IA pode levar a consequências não intencionais, como violações de dados ou discriminação. A regulamentação da IA ​​pode ajudar a mitigar este risco, estabelecendo diretrizes rigorosas para garantir que ChatGPT sistemas não são usados ​​de forma maliciosa. Finalmente, IA e ChatGPT pode se tornar um fator de controle em nossas vidas, controlando coisas como fluxo de tráfego e mercados financeiros, e até mesmo sendo usado para influenciar nossas vidas políticas e sociais. Para evitar esse tipo de desequilíbrio de poder, é necessário que haja regulamentos rígidos implementados.

Sugerimos a criação de uma nova agência para licenciar e regular a IA atividades se suas capacidades excederem um determinado limite.

Sam Altman

Padrões de Segurança

Padrões de Segurança
@Midjourney

As tecnologias de IA e chatbot estão causando um progresso na maneira como gerenciamos nossas vidas diárias. À medida que essas tecnologias se tornam mais avançadas, elas têm o potencial de se tornar autônomas e tomar decisões por conta própria. Para evitar isso, normas de segurança deve ser estabelecido que esses modelos devem atender antes que possam ser implantados. Um dos principais padrões de segurança propostos por Altman em 2023 é um teste de autorreplicação, que garantiria que o modelo de IA não consiga se autorreplicar sem autorização. O segundo padrão de segurança proposto por Altman em 2023 é um teste para exfiltração de dados, o que garantiria que os modelos de IA não sejam capazes de exfiltrar dados de um sistema sem autorização. Governos de todo o mundo começaram a agir para proteger os cidadãos dos riscos potenciais.

Temos que implementar padrões de segurança que os modelos de IA devem atender antes da implantação, incluindo testes de autorreplicação e exfiltração de dados.

Sam Altman

Auditorias Independentes

Auditorias Independentes
@Midjourney

Em 2023, a necessidade de auditorias independentes de tecnologias de IA e LLMs torna-se cada vez mais importante. A IA apresenta uma variedade de riscos, como algoritmos de aprendizado de máquina não supervisionados que podem alterar e até excluir dados involuntariamente, e os ataques cibernéticos estão cada vez mais direcionados à IA e ChatGPT. Os modelos criados por IA incorporam viés, o que pode levar a práticas discriminatórias. Uma auditoria independente deve incluir uma revisão da modela a IA é treinado, o design do algoritmo e a saída do modelo para garantir que ele não exiba codificação ou resultados tendenciosos. Além disso, a auditoria deve incluir uma revisão das políticas e procedimentos de segurança usados ​​para proteger dados do usuário e garantir um ambiente seguro.

As auditorias independentes são realizadas para garantir que os modelos de IA atendam aos padrões de segurança estabelecidos.

Sam Altman

Sem uma auditoria independente, empresas e usuários estão expostos a Potencialmente perigoso e riscos dispendiosos que poderiam ter sido evitados. É fundamental que todas as empresas que usam essa tecnologia tenham uma auditoria independente concluída antes da implantação para garantir que a tecnologia seja segura e ética.

IA como ferramenta

IA como ferramenta
@Midjourney

A IA se desenvolveu exponencialmente e avanços como GPT-4 levaram a interações mais realistas e sofisticadas com computadores. No entanto, Altman enfatizou que a IA deve ser vista como ferramentas, não como criaturas sencientes. GPT-4 é um modelo de processamento de linguagem natural que pode gerar conteúdo quase indistinguível do conteúdo escrito por humanos, tirando parte do trabalho dos escritores e permitindo que os usuários tenham uma experiência mais humana com a tecnologia.

IA, especialmente modelos avançados como GPT-4, devem ser vistos como ferramentas, não como seres sencientes.

Sam Altman

No entanto, Sam Altman adverte que muita ênfase na IA como mais do que uma ferramenta pode levar a expectativas irrealistas e falsas crenças sobre suas capacidades. Ele também aponta que a IA tem suas implicações éticas e que, mesmo que níveis avançados de IA possam ser usados ​​para o bem, ela ainda pode ser usada para o mal, levando a perfis raciais perigosos. violações de privacidade, e até ameaças de segurança. Altman destaca a importância de entender que a IA é apenas uma ferramenta e que deve ser vista como uma ferramenta para acelerar o progresso humano, não para substituir os humanos.

Consciência da IA

Consciência da IA
@Midjourney

O debate sobre a IA e se ela pode ou não atingir a percepção consciente vem crescendo. Muitos pesquisadores estão argumentando que as máquinas são incapazes de experimentar estados emocionais, mentais ou conscientes, apesar de sua complexa arquitetura computacional. Alguns pesquisadores aceitam a possibilidade de a IA atingir a percepção consciente. O principal argumento para essa possibilidade é que a IA é construída sobre programas que a tornam capaz de replicando certos processos físicos e mentais encontrados no cérebro humano. No entanto, o principal contra-argumento é que a IA não possui nenhuma inteligência emocional real.

Embora a IA deva ser vista como uma ferramenta, reconheço o debate em andamento na comunidade científica sobre a potencial consciência da IA.

Sam Altman

Muitos pesquisadores de IA concordam que não há provas científicas que sugiram que a IA seja capaz de atingir a percepção consciente da mesma forma que um ser humano. Elon Musk, um dos maiores defensores desse ponto de vista, acredita que a capacidade da IA ​​de imitar formas de vida biológica é extremamente limitada e mais ênfase deve ser colocada em ensinar valores éticos às máquinas.

Aplicações militares

Aplicações militares
@Midjourney

A IA em contextos militares está avançando rapidamente e tem o potencial de melhorar a maneira como os militares conduzem a guerra. Os cientistas temem que a IA nas forças armadas possa apresentar uma série de problemas éticos e relacionados a riscos, como imprevisibilidade, incalculabilidade e falta de transparência.

Reconheço o potencial do uso de IA em aplicações militares, como drones autônomos, e convoquei regulamentos para governar tal uso.

Sam Altman

Os sistemas de IA são vulneráveis ​​a agentes mal-intencionados que podem reprogramar os sistemas ou se infiltrar nos sistemas, podendo levar a um resultado devastador. Para resolver estes preocupações, a comunidade internacional deu um primeiro passo na forma de sua Convenção Internacional sobre Certas Armas Convencionais de 1980, que impõe certas proibições ao uso de certas armas. Especialistas em IA defenderam um Comitê Internacional para supervisionar processos como avaliação, treinamento e implantação de IA em aplicações militares.

AGI

AGI
@Midjourney

A tecnologia de IA está se tornando cada vez mais avançada e difundida, tornando importante entender os riscos potenciais apresentados por agentes e sistemas de IA. O primeiro e mais óbvio risco associado aos agentes de IA é o perigo das máquinas superarem os humanos. Os agentes de IA podem superar facilmente seus criadores, assumindo a tomada de decisões, os processos de automação e outras tarefas avançadas. Além disso, a automação baseada em IA pode aumentar a desigualdade, pois substitui os humanos na mercado de trabalho.

Alerto que sistemas de IA mais poderosos e complexos podem estar mais próximos da realidade do que muitos pensam e enfatizei a necessidade de preparação e medidas preventivas.

Sam Altman

Algoritmos de IA e seu uso em tomadas de decisão complexas levantam uma preocupação com a falta de transparência. As organizações podem mitigar os riscos associados a agentes de IA, garantindo proativamente que a IA esteja sendo desenvolvida de forma ética, usando dados em conformidade com padrões éticos e submetendo algoritmos a testes de rotina para garantir que não sejam tendenciosos e sejam responsáveis ​​com usuários e dados.

Conclusão

Altman também afirmou que, embora não possamos administrar a China, devemos negociar com ela. Os critérios propostos para avaliar e modelos de IA reguladores incluem a capacidade de sintetizar amostras biológicas, a manipulação das crenças das pessoas, a quantidade de poder de processamento gasto e assim por diante.

Um tema significativo é que Sam deveria ter “relacionamentos” com o estado. Esperamos que não sigam o exemplo da Europa, como mencionamos anteriormente.

Perguntas Frequentes:

Os riscos de IA incluem o potencial de os sistemas de IA exibirem comportamento tendencioso ou discriminatório, serem usados ​​de forma maliciosa ou inadequada ou funcionarem mal de maneira a causar danos. O desenvolvimento e a implantação de tecnologias de IA podem representar riscos à privacidade e segurança de dados, bem como à segurança e proteção de pessoas e sistemas.

Os cinco principais riscos associados à IA são: perda de empregos, Riscos de segurança, Vieses ou discriminação, Bioweapons e AGI.

O aspecto mais perigoso da IA ​​é seu potencial de causar desemprego em massa.

Aviso Legal

Em linha com a Diretrizes do Projeto Trust, observe que as informações fornecidas nesta página não se destinam e não devem ser interpretadas como aconselhamento jurídico, tributário, de investimento, financeiro ou qualquer outra forma. É importante investir apenas o que você pode perder e procurar aconselhamento financeiro independente se tiver alguma dúvida. Para mais informações, sugerimos consultar os termos e condições, bem como as páginas de ajuda e suporte fornecidas pelo emissor ou anunciante. MetaversePost está comprometida com relatórios precisos e imparciais, mas as condições de mercado estão sujeitas a alterações sem aviso prévio.

Sobre o autor

Damir é o líder de equipe, gerente de produto e editor da Metaverse Post, abordando tópicos como AI/ML, AGI, LLMs, Metaverse e Web3-Campos relacionados. Seus artigos atraem um grande público de mais de um milhão de usuários todos os meses. Ele parece ser um especialista com 10 anos de experiência em SEO e marketing digital. Damir foi mencionado em Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e outras publicações. Ele viaja entre os Emirados Árabes Unidos, Turquia, Rússia e CEI como um nômade digital. Damir formou-se em física, o que ele acredita ter lhe dado as habilidades de pensamento crítico necessárias para ter sucesso no cenário em constante mudança da internet. 

Mais artigos
Damir Yalalov
Damir Yalalov

Damir é o líder de equipe, gerente de produto e editor da Metaverse Post, abordando tópicos como AI/ML, AGI, LLMs, Metaverse e Web3-Campos relacionados. Seus artigos atraem um grande público de mais de um milhão de usuários todos os meses. Ele parece ser um especialista com 10 anos de experiência em SEO e marketing digital. Damir foi mencionado em Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e outras publicações. Ele viaja entre os Emirados Árabes Unidos, Turquia, Rússia e CEI como um nômade digital. Damir formou-se em física, o que ele acredita ter lhe dado as habilidades de pensamento crítico necessárias para ter sucesso no cenário em constante mudança da internet. 

Hot Stories
Junte-se ao nosso boletim informativo.
Últimas notícias

Cresce apetite institucional por ETFs de Bitcoin em meio à volatilidade

As divulgações por meio de registros 13F revelam investidores institucionais notáveis ​​​​que se envolvem em ETFs Bitcoin, ressaltando uma aceitação crescente de ...

Saber Mais

Chega o dia da sentença: o destino de CZ está em equilíbrio enquanto o tribunal dos EUA considera o apelo do DOJ

Changpeng Zhao está prestes a ser condenado hoje em um tribunal dos EUA em Seattle.

Saber Mais
Junte-se à nossa comunidade tecnológica inovadora
Saiba Mais
Saiba mais
Injective une forças com AltLayer para trazer segurança de restabelecimento para inEVM
O negócio Relatório de notícias Equipar
Injective une forças com AltLayer para trazer segurança de restabelecimento para inEVM
3 de maio de 2024
Masa se une ao Teller para introduzir o pool de empréstimos MASA, permitindo empréstimos em USDC na base
Mercados Relatório de notícias Equipar
Masa se une ao Teller para introduzir o pool de empréstimos MASA, permitindo empréstimos em USDC na base
3 de maio de 2024
Velodrome lança versão beta do Superchain nas próximas semanas e se expande para blockchains OP Stack Layer 2
Mercados Relatório de notícias Equipar
Velodrome lança versão beta do Superchain nas próximas semanas e se expande para blockchains OP Stack Layer 2
3 de maio de 2024
CARV anuncia parceria com Aethir para descentralizar sua camada de dados e distribuir recompensas
O negócio Relatório de notícias Equipar
CARV anuncia parceria com Aethir para descentralizar sua camada de dados e distribuir recompensas
3 de maio de 2024
CRYPTOMERIA LABS PTE. LTDA.