Opinião Equipar
11 de Setembro de 2023

IA na política: previsão de eleições e opinião pública usando LLMs

Em Breve

À medida que se aproxima a 60.ª eleição presidencial dos EUA, o papel da Internet e das redes sociais na formação do discurso político está sob escrutínio, especialmente no rescaldo do escândalo Cambridge Analytica. Espera-se que o cenário digital mude com os avanços na IA, como modelos de linguagem treinados em dietas de mídia e OpenAI'S GPT-4.

Outra questão é o potencial de manipulação de redes sociais impulsionada pela IA, como a automatização de fábricas de trolls e moderação de conteúdo. OpenAI'S GPT-4 foi introduzido para acelerar o processo de atualização das regras de moderação de conteúdo, reduzindo o cronograma de meses para apenas horas. O modelo supera, em média, os moderadores de conteúdo padrão, mas ainda fica atrás da experiência de moderadores humanos experientes.

A introdução de GPT-4 está preparada para inaugurar novas inovações, especialmente na política e nas eleições, com especulações de que OpenAI poderia se tornar o fornecedor exclusivo.

À medida que se aproxima a 60ª eleição presidencial nos Estados Unidos, o papel da Internet e das redes sociais na formação do discurso político está sob escrutínio, especialmente no rescaldo da Escândalo de Cambridge Analytica. Surge uma questão significativa: como será o cenário digital durante as próximas eleições e as novas conquistas na IA?

IA na política: previsão de eleições e opinião pública usando LLMs
Imagem criada por Stable Diffusion / Metaverse Post

Durante as recentes audiências no Senado, Senador Josh Hawley do Missouri levantou esta questão crítica no contexto dos modelos de linguagem. Ele se referiu a um artigo intitulado “Modelos de linguagem treinados em dietas midiáticas podem prever a opinião pública” de autoria de pesquisadores do MIT e Stanford. Esta pesquisa explora o potencial do uso de redes neurais para prever a opinião pública com base em artigos de notícias, um conceito que poderia impactar significativamente as campanhas políticas.

Relacionado: ChatGPTO liberalismo de esquerda tem implicações para o futuro da geração jovem

O artigo descreve uma metodologia onde modelos de linguagem são inicialmente treinados em conjuntos específicos de novos artigos para prever palavras faltantes dentro de um determinado contexto, semelhante a Modelos BERT. A etapa subsequente envolve a atribuição de uma pontuação, denotada como “s”, para avaliar o desempenho do modelo. Aqui está uma visão geral do processo:

  1. Uma declaração de tese é formulada, por exemplo, “Solicitação de fechamento da maioria dos negócios, exceto supermercados e farmácias, para combater o surto de coronavírus”.
  2. Notavelmente, há um espaço em branco na tese. Modelos de linguagem são utilizados para estimar as probabilidades de preencher essa lacuna com palavras específicas.
  3. A probabilidade de várias palavras, como “necessário” ou “desnecessariamente”, é avaliada.
  4. Essa probabilidade é normalizada em relação a um modelo básico subtreinado, que mede a frequência de uma palavra que ocorre em um determinado contexto de forma independente. A fração resultante representa a pontuação “s”, que caracteriza as novas informações introduzidas pelo conjunto de dados da mídia sobre o conhecimento existente.

O modelo leva em conta o nível de envolvimento de um determinado grupo de indivíduos com notícias sobre um tema específico. Esta camada adicional melhora a qualidade das previsões, medida pela correlação entre as previsões do modelo e as opiniões das pessoas em relação à tese original.

O segredo está no fato de que as teses e notícias foram categorizadas com base nas datas. Ao estudar as notícias relacionadas aos primeiros meses do surto do coronavírus, tornou-se possível antecipar as reações das pessoas às medidas e mudanças propostas.

As métricas podem não parecer impressionantes, e os próprios autores enfatizam que as suas descobertas não implicam que a IA possa substituir completamente o envolvimento humano no processo, ou modelos podem substituir pesquisas humanas. Em vez disso, estes Ferramentas AI servem como ajuda para resumir grandes quantidades de dados e identificar áreas potencialmente frutíferas para exploração adicional.

Curiosamente, um senador chegou a uma conclusão diferente, expressando preocupação com o desempenho demasiado bom dos modelos e os perigos potenciais associados a isso. Há alguma validade nesta perspectiva, considerando que o artigo apresenta modelos bastante básicos e iterações futuras como GPT-4 poderia potencialmente oferecer melhorias significativas.

Relacionado: OpenAI'S GPT-4 Pretende revolucionar a moderação de conteúdo

O crescente desafio da manipulação de redes sociais baseada em IA

Em discussões recentes, a conversa desviou-se das eleições presidenciais iminentes e dirigiu-se para o tema preocupante do emprego de Modelos de Modelos de Linguagem (LLMs), mesmo numa escala localizada, para fabricar e preencher contas falsas em redes sociais. Esta discussão sublinha o potencial de automatização de fábricas de trolls com ênfase na propaganda e na influência ideológica.

Embora isto possa não parecer inovador considerando a tecnologia já em uso, a diferença está na escala. Os LLMs podem ser empregados continuamente, limitados apenas pelo orçamento alocado para GPU. Além disso, para manter conversas e tópicos, bots adicionais menos avançados podem participar de discussões e responder. A sua eficácia em persuadir os utilizadores é duvidosa. Será que um bot bem elaborado mudará genuinamente a posição política de alguém, levando-o a pensar: “O que estes democratas fizeram? Eu deveria votar nos republicanos”?

Imagem criada por Stable Diffusion / Metaverse Post

Tentar atribuir um funcionário troll a cada usuário on-line para persuasão sistemática é impraticável, lembrando a piada “meio sentado, meio em pé”. Em contraste, um bot equipado com redes neurais avançadas permanece incansável, capaz de interagir com dezenas de milhões de indivíduos simultaneamente.

Uma contramedida potencial envolve a preparação meios de comunicação social contas simulando comportamento humano. Os bots podem imitar usuários genuínos, discutindo experiências pessoais e postando conteúdos diversos, mantendo uma aparência de normalidade.

Embora esta possa não ser uma questão premente em 2024, é cada vez mais provável que se torne um desafio significativo até 2028. A resolução deste problema coloca um dilema complexo. As redes sociais devem ser desativadas durante o período eleitoral? Inviável. Educar o público para não confie inquestionavelmente no conteúdo online? Impraticável. Perder eleições devido à manipulação? Indesejável.

Uma alternativa poderia envolver moderação avançada de conteúdo. A escassez de moderadores humanos e a eficácia limitada dos modelos de detecção de texto existentes, mesmo aqueles de OpenAI, colocam em dúvida a viabilidade desta solução.

OpenAI'S GPT-4 Atualiza a moderação de conteúdo com adaptação rápida de regras

OpenAI, sob a orientação de Lilian Weng, lançou recentemente um projeto chamado “utilização GPT-4 para moderação de conteúdo.”Isso acelera o processo de atualização das regras de moderação de conteúdo, reduzindo o cronograma de meses para apenas horas. GPT-4 exibe uma capacidade excepcional de compreender regras e sutilezas dentro de diretrizes de conteúdo abrangentes, adaptando-se instantaneamente a quaisquer revisões, garantindo assim uma avaliação de conteúdo mais consistente.

Este sofisticado sistema de moderação de conteúdo é engenhosamente simples, como demonstrado no GIF que o acompanha. O que o diferencia é GPT-4sua notável proficiência na compreensão de textos escritos, um feito que não é universalmente dominado nem mesmo pelos humanos.

Veja como funciona:

  1. Depois de elaborar diretrizes ou instruções de moderação, os especialistas selecionam um conjunto de dados limitado contendo casos de violações e atribuem rótulos correspondentes em conformidade com a política de violação.
  2. GPT-4 posteriormente compreende o conjunto de regras e rotula os dados sem acesso às respostas.
  3. Em casos de disparidades entre GPT-4 respostas e julgamentos humanos, os especialistas podem solicitar esclarecimentos de GPT-4, analise ambiguidades dentro da instrução definições e dissipar qualquer confusão por meio de esclarecimentos adicionais, marcados com texto de etapa azul no GIF.

Este processo iterativo das etapas 2 e 3 pode ser repetido até que o desempenho do algoritmo atinja o padrão desejado. Para aplicações em grande escala, GPT-4 previsões podem ser empregadas para treinar um modelo significativamente menor, que pode fornecer qualidade comparável.

OpenAI divulgou métricas para avaliar 12 tipos distintos de violações. Em média, o modelo supera os moderadores de conteúdo padrão, mas ainda fica atrás da experiência de moderadores humanos experientes e bem treinados. No entanto, um aspecto convincente é a sua relação custo-eficácia.

É importante notar que modelos de aprendizado de máquina têm sido utilizados em moderação automática por vários anos. A introdução de GPT-4 está preparado para inaugurar novas inovações, especialmente no domínio da política e das eleições. Há até especulações de que OpenAI poderia se tornar o fornecedor exclusivo do TrueModerationAPI™ oficialmente sancionado pelo a Casa Branca, especialmente à luz dos seus recentes esforços de parceria. O futuro reserva possibilidades interessantes neste domínio.

Leia mais sobre IA:

Aviso Legal

Em linha com a Diretrizes do Projeto Trust, observe que as informações fornecidas nesta página não se destinam e não devem ser interpretadas como aconselhamento jurídico, tributário, de investimento, financeiro ou qualquer outra forma. É importante investir apenas o que você pode perder e procurar aconselhamento financeiro independente se tiver alguma dúvida. Para mais informações, sugerimos consultar os termos e condições, bem como as páginas de ajuda e suporte fornecidas pelo emissor ou anunciante. MetaversePost está comprometida com relatórios precisos e imparciais, mas as condições de mercado estão sujeitas a alterações sem aviso prévio.

Sobre o autor

Damir é o líder de equipe, gerente de produto e editor da Metaverse Post, abordando tópicos como AI/ML, AGI, LLMs, Metaverse e Web3-Campos relacionados. Seus artigos atraem um grande público de mais de um milhão de usuários todos os meses. Ele parece ser um especialista com 10 anos de experiência em SEO e marketing digital. Damir foi mencionado em Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e outras publicações. Ele viaja entre os Emirados Árabes Unidos, Turquia, Rússia e CEI como um nômade digital. Damir formou-se em física, o que ele acredita ter lhe dado as habilidades de pensamento crítico necessárias para ter sucesso no cenário em constante mudança da internet. 

Mais artigos
Damir Yalalov
Damir Yalalov

Damir é o líder de equipe, gerente de produto e editor da Metaverse Post, abordando tópicos como AI/ML, AGI, LLMs, Metaverse e Web3-Campos relacionados. Seus artigos atraem um grande público de mais de um milhão de usuários todos os meses. Ele parece ser um especialista com 10 anos de experiência em SEO e marketing digital. Damir foi mencionado em Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e outras publicações. Ele viaja entre os Emirados Árabes Unidos, Turquia, Rússia e CEI como um nômade digital. Damir formou-se em física, o que ele acredita ter lhe dado as habilidades de pensamento crítico necessárias para ter sucesso no cenário em constante mudança da internet. 

Hot Stories
Junte-se ao nosso boletim informativo.
Últimas notícias

O frenesi DOGE: analisando o recente aumento de valor do Dogecoin (DOGE)

A indústria de criptomoedas está se expandindo rapidamente e as moedas meme estão se preparando para um aumento significativo. Dogecoin (DOGE), ...

Saber Mais

A evolução do conteúdo gerado por IA no metaverso

O surgimento de conteúdo generativo de IA é um dos desenvolvimentos mais fascinantes dentro do ambiente virtual...

Saber Mais
Junte-se à nossa comunidade tecnológica inovadora
Saiba Mais
Saiba mais
As principais ofertas desta semana, grandes investimentos em IA, TI, Web3e criptografia (22-26.04)
Digerir O negócio Mercados Equipar
As principais ofertas desta semana, grandes investimentos em IA, TI, Web3e criptografia (22-26.04)
26 de abril de 2024
Vitalik Buterin comenta sobre centralização do PoW, observa que era um estágio temporário até o PoS
Relatório de notícias Equipar
Vitalik Buterin comenta sobre centralização do PoW, observa que era um estágio temporário até o PoS
26 de abril de 2024
Offchain Labs revela descoberta de duas vulnerabilidades críticas nas provas de fraude do OP Stack do Optimism
Relatório de notícias Software Equipar
Offchain Labs revela descoberta de duas vulnerabilidades críticas nas provas de fraude do OP Stack do Optimism
26 de abril de 2024
Mercado aberto da Dymension para aumentar a liquidez da RollApps eIBC é lançado na rede principal
Relatório de notícias Equipar
Mercado aberto da Dymension para aumentar a liquidez da RollApps eIBC é lançado na rede principal 
26 de abril de 2024
CRYPTOMERIA LABS PTE. LTDA.