Opinión Tecnología
11 de septiembre de 2023

IA en la política: predicción de elecciones y opinión pública mediante LLM

En Resumen

A medida que se acerca la 60ª elección presidencial de Estados Unidos, el papel de Internet y las redes sociales en la configuración del discurso político está bajo escrutinio, particularmente después del escándalo de Cambridge Analytica. Se espera que el panorama digital cambie con los avances en la IA, como los modelos de lenguaje entrenados en dietas mediáticas y OpenAI, GPT-4.

Otro problema es el potencial de manipulación de redes sociales impulsada por la IA, como la automatización de fábricas de trolls y la moderación de contenidos. OpenAI, GPT-4 se ha introducido para acelerar el proceso de actualización de las reglas de moderación de contenido, reduciendo el cronograma de meses a simples horas. El modelo supera en promedio a los moderadores de contenido estándar, pero aún está por detrás de la experiencia de los moderadores humanos experimentados.

La introducción de GPT-4 está a punto de marcar el comienzo de nuevas innovaciones, particularmente en política y elecciones, con especulaciones de que OpenAI podría convertirse en el proveedor exclusivo.

A medida que se acerca la 60ª elección presidencial en Estados Unidos, el papel de Internet y las redes sociales en la configuración del discurso político está bajo escrutinio, especialmente después de la Escándalo de Cambridge Analytica. Surge una pregunta importante: ¿cómo será el panorama digital durante las próximas elecciones y los nuevos logros en IA?

IA en la política: predicción de elecciones y opinión pública mediante LLM
Imagen creada por Stable Diffusion / Metaverse Post

Durante las recientes audiencias del Senado, Senador Josh Hawley de Missouri Planteó esta cuestión crítica en el contexto de los modelos lingüísticos. Se refirió a un artículo titulado “Los modelos lingüísticos entrenados en dietas mediáticas pueden predecir la opinión pública”escrito por investigadores del MIT y Stanford. Esta investigación explora el potencial del uso de redes neuronales para predecir la opinión pública a partir de artículos de noticias, un concepto que podría impactar significativamente las campañas políticas.

Relacionado:: ChatGPTEl libertarismo de izquierda tiene implicaciones para el futuro de la generación joven

El artículo describe una metodología en la que los modelos de lenguaje se entrenan inicialmente en conjuntos específicos de artículos de noticias para predecir palabras faltantes dentro de un contexto dado, similar a Modelos Bert. El paso siguiente consiste en asignar una puntuación, denominada "s", para evaluar el rendimiento del modelo. Aquí hay una descripción general del proceso:

  1. Una declaración de tesis se formula, por ejemplo, “Solicitud de cierre de la mayoría de los negocios, excepto tiendas de comestibles y farmacias, para combatir el brote de coronavirus”.
  2. Cabe destacar que hay un vacío en la tesis. Se utilizan modelos de lenguaje para estimar las probabilidades de completar este espacio con palabras específicas.
  3. Se evalúa la probabilidad de que aparezcan varias palabras, como "necesario" o "innecesariamente".
  4. Esta probabilidad está normalizada en relación con un modelo base poco entrenado, que mide la frecuencia de una palabra que aparece en un contexto determinado de forma independiente. La fracción resultante representa la puntuación “s”, que caracteriza la nueva información introducida por el conjunto de datos de los medios sobre el conocimiento existente.

El modelo tiene en cuenta el nivel de compromiso de un grupo particular de personas con noticias sobre un tema específico. Esta capa adicional mejora la calidad de la predicción, medida por la correlación entre las predicciones del modelo y las opiniones de las personas con respecto a la tesis original.

El secreto está en que las tesis y noticias fueron categorizadas según sus fechas. Al estudiar las noticias relacionadas con los primeros meses del brote de coronavirus, fue posible anticipar las reacciones de la gente a las medidas y cambios propuestos.

Es posible que las métricas no parezcan impresionantes, y los propios autores enfatizan que sus hallazgos no implican que la IA pueda reemplazar completamente la participación humana en el proceso, o Los modelos pueden reemplazar las encuestas humanas.. En cambio, estos Herramientas de AI sirven como ayuda para resumir grandes cantidades de datos e identificar áreas potencialmente fructíferas para una mayor exploración.

Curiosamente, un senador llegó a una conclusión diferente y expresó su preocupación por el rendimiento demasiado bueno de los modelos y los peligros potenciales asociados con esto. Esta perspectiva tiene cierta validez, considerando que el artículo muestra modelos bastante básicos e iteraciones futuras como GPT-4 potencialmente podría ofrecer mejoras significativas.

Relacionado:: OpenAI, GPT-4 Se propone revolucionar la moderación de contenido

El creciente desafío de la manipulación de redes sociales impulsada por la IA

En discusiones recientes, la conversación se alejó de las inminentes elecciones presidenciales y se dirigió hacia el preocupante tema del empleo de Modelos de Lenguaje (LLM), incluso a escala localizada, para fabricar y poblar cuentas falsas en las redes sociales. Esta discusión subraya el potencial de automatizar las fábricas de trolls con énfasis en la propaganda y la influencia ideológica.

Si bien esto puede no parecer innovador considerando la tecnología que ya se utiliza, la diferencia radica en la escala. Los LLM se pueden emplear de forma continua, limitados únicamente por el presupuesto de GPU asignado. Además, para mantener conversaciones e hilos, bots adicionales menos avanzados pueden unirse a las discusiones y responder. Su eficacia para persuadir a los usuarios es dudosa. ¿Un bot bien diseñado cambiará realmente la postura política de alguien, incitándolo a pensar: “¿Qué han hecho estos demócratas? ¿Debería votar por los republicanos”?

Imagen creada por Stable Diffusion / Metaverse Post

Intentar asignar un empleado troll a cada usuario en línea para persuadirlo sistemáticamente no es práctico, y recuerda al chiste "la mitad sentada, la mitad de pie". Por el contrario, un robot dotado de redes neuronales avanzadas sigue siendo incansable y capaz de interactuar con decenas de millones de personas simultáneamente.

Una posible contramedida implica preparar redes sociales cuentas simulando un comportamiento humano. Los bots pueden imitar a usuarios genuinos al discutir experiencias personales y publicar contenido diverso mientras mantienen una apariencia de normalidad.

Si bien esto puede no ser un problema apremiante en 2024, es cada vez más probable que se convierta en un desafío importante para 2028. Abordar este problema plantea un dilema complejo. ¿Deberían desactivarse las redes sociales durante la temporada electoral? Inviable. Educar al público para que no Confía indiscutiblemente en el contenido online.? Poco práctico. ¿Perder elecciones por manipulación? Indeseable.

Una alternativa podría implicar la moderación avanzada de contenido. La escasez de moderadores humanos y la eficacia limitada de los modelos de detección de texto existentes, incluso los de OpenAI, arrojan dudas sobre la viabilidad de esta solución.

OpenAI, GPT-4 Actualiza la moderación de contenido con una rápida adaptación de reglas

OpenAI, bajo la dirección de Lilian Weng, ha presentado recientemente un proyecto llamado “Usar GPT-4 para moderación de contenido.”Esto acelera el proceso de actualización de las reglas de moderación de contenido, reduciendo el cronograma de meses a simples horas. GPT-4 exhibe una capacidad excepcional para comprender reglas y sutilezas dentro de pautas de contenido integrales, adaptándose instantáneamente a cualquier revisión, garantizando así una evaluación de contenido más consistente.

Este sofisticado sistema de moderación de contenido es ingeniosamente sencillo, como se demuestra en el GIF adjunto. Lo que lo distingue es GPT-4La notable habilidad de en la comprensión de textos escritos, una hazaña que no es universalmente dominada ni siquiera por los humanos.

Así es como funciona:

  1. Después de redactar directrices o instrucciones de moderación, los expertos seleccionan un conjunto de datos limitado que contiene casos de infracciones y asignan las etiquetas correspondientes de acuerdo con la política de infracciones.
  2. GPT-4 posteriormente comprende el conjunto de reglas y etiqueta los datos sin acceso a las respuestas.
  3. En casos de disparidades entre GPT-4 respuestas y juicios humanos, los expertos pueden solicitar aclaraciones de GPT-4, analizar ambigüedades dentro de la instrucción definiciones y disipar cualquier confusión a través de aclaraciones adicionales, marcadas con texto de paso azul en el GIF.

Este proceso iterativo de los pasos 2 y 3 se puede repetir hasta que el rendimiento del algoritmo cumpla con el estándar deseado. Para aplicaciones a gran escala, GPT-4 Las predicciones se pueden emplear para entrenar un modelo significativamente más pequeño, que puede ofrecer una calidad comparable.

OpenAI ha revelado métricas para evaluar 12 tipos distintos de infracciones. En promedio, el modelo supera a los moderadores de contenido estándar, pero aún está por detrás de la experiencia de moderadores humanos experimentados y bien capacitados. Sin embargo, un aspecto convincente es su rentabilidad.

Vale la pena señalar que los modelos de aprendizaje automático se han utilizado en moderación automática durante varios años. La introducción de GPT-4 está a punto de marcar el comienzo de nuevas innovaciones, particularmente en el ámbito de la política y las elecciones. Incluso se especula que OpenAI podría convertirse en el proveedor exclusivo de TrueModerationAPI™ oficialmente sancionado por el De la Casa Blanca, especialmente a la luz de sus recientes esfuerzos de asociación. El futuro depara posibilidades apasionantes en este ámbito.

Lea más sobre la IA:

Aviso

En línea con la Directrices del Proyecto Confianza, tenga en cuenta que la información proporcionada en esta página no pretende ser ni debe interpretarse como asesoramiento legal, fiscal, de inversión, financiero o de cualquier otro tipo. Es importante invertir sólo lo que pueda permitirse perder y buscar asesoramiento financiero independiente si tiene alguna duda. Para mayor información sugerimos consultar los términos y condiciones así como las páginas de ayuda y soporte proporcionadas por el emisor o anunciante. MetaversePost se compromete a brindar informes precisos e imparciales, pero las condiciones del mercado están sujetas a cambios sin previo aviso.

Sobre el Autor

Damir es el líder del equipo, gerente de producto y editor en Metaverse Post, que cubre temas como AI/ML, AGI, LLM, Metaverse y Web3-campos relacionados. Sus artículos atraen una audiencia masiva de más de un millón de usuarios cada mes. Parece ser un experto con 10 años de experiencia en SEO y marketing digital. Damir ha sido mencionado en Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto y otras publicaciones. Viaja entre los Emiratos Árabes Unidos, Turquía, Rusia y la CEI como nómada digital. Damir obtuvo una licenciatura en física, que él cree que le ha dado las habilidades de pensamiento crítico necesarias para tener éxito en el panorama siempre cambiante de Internet. 

Más artículos
Damir Yalalov
Damir Yalalov

Damir es el líder del equipo, gerente de producto y editor en Metaverse Post, que cubre temas como AI/ML, AGI, LLM, Metaverse y Web3-campos relacionados. Sus artículos atraen una audiencia masiva de más de un millón de usuarios cada mes. Parece ser un experto con 10 años de experiencia en SEO y marketing digital. Damir ha sido mencionado en Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto y otras publicaciones. Viaja entre los Emiratos Árabes Unidos, Turquía, Rusia y la CEI como nómada digital. Damir obtuvo una licenciatura en física, que él cree que le ha dado las habilidades de pensamiento crítico necesarias para tener éxito en el panorama siempre cambiante de Internet. 

Hot Stories
Suscríbase a nuestro boletín.
Últimas Noticias

De Ripple a The Big Green DAO: cómo los proyectos de criptomonedas contribuyen a la caridad

Exploremos iniciativas que aprovechen el potencial de las monedas digitales para causas benéficas.

Para saber más

AlphaFold 3, Med-Gemini y otros: la forma en que la IA transformará la atención médica en 2024

La IA se manifiesta de varias maneras en la atención médica, desde descubrir nuevas correlaciones genéticas hasta potenciar sistemas quirúrgicos robóticos...

Para saber más
Únase a nuestra comunidad tecnológica innovadora
Leer Más
Leer más
Cómo OpenAIEl último modelo de rompe barreras al integrar texto, audio y entradas visuales para crear una experiencia de usuario perfecta
Educación Estilo de vida Software Historias y comentarios Tecnología
Cómo OpenAIEl último modelo de rompe barreras al integrar texto, audio y entradas visuales para crear una experiencia de usuario perfecta
14 de mayo de 2024
Se sospecha que la cuenta X de Bitlayer está bajo ataque, se recomienda a los usuarios que tengan cuidado con los enlaces de phishing
Informe de noticias Tecnología
Se sospecha que la cuenta X de Bitlayer está bajo ataque, se recomienda a los usuarios que tengan cuidado con los enlaces de phishing
14 de mayo de 2024
Durian presentado: un análisis completo del arsenal cibernético de criptomonedas de Kimsuky y su impacto en las criptoempresas de Corea del Sur
Industrias Software Historias y comentarios Tecnología
Durian presentado: un análisis completo del arsenal cibernético de criptomonedas de Kimsuky y su impacto en las criptoempresas de Corea del Sur
14 de mayo de 2024
Vitalik Buterin publica la propuesta EIP-7706 para introducir un nuevo tipo de gas para los datos de llamadas de transacciones de Ethereum
Informe de noticias Tecnología
Vitalik Buterin publica la propuesta EIP-7706 para introducir un nuevo tipo de gas para los datos de llamadas de transacciones de Ethereum
14 de mayo de 2024
CRYPTOMERIA LABORATORIOS PTE. LIMITADO.