Opinione Tecnologia
11 settembre 2023

L'intelligenza artificiale in politica: prevedere le elezioni e l'opinione pubblica utilizzando i LLM

In Breve

Con l’avvicinarsi delle 60esime elezioni presidenziali americane, il ruolo di Internet e dei social network nel plasmare il discorso politico è sotto esame, in particolare all’indomani dello scandalo Cambridge Analytica. Si prevede che il panorama digitale cambierà con i progressi nell’intelligenza artificiale, come i modelli linguistici addestrati alle diete mediatiche OpenAI'S GPT-4.

Un altro problema è il potenziale di manipolazione dei social network basata sull’intelligenza artificiale, come l’automazione delle fabbriche di troll e la moderazione dei contenuti. OpenAI'S GPT-4 è stato introdotto per accelerare il processo di aggiornamento delle regole di moderazione dei contenuti, riducendo i tempi da mesi a poche ore. Il modello supera in media le prestazioni dei moderatori di contenuti standard, ma è ancora in ritardo rispetto all'esperienza dei moderatori umani esperti.

L'introduzione di GPT-4 è pronto a inaugurare nuove innovazioni, in particolare nella politica e nelle elezioni, con la speculazione che ciò OpenAI potrebbe diventare il fornitore esclusivo.

Con l’avvicinarsi delle 60esime elezioni presidenziali negli Stati Uniti, il ruolo di Internet e dei social network nel plasmare il discorso politico è sotto esame, soprattutto all’indomani del Scandalo di Cambridge Analytica. Sorge una domanda significativa: come sarà il panorama digitale durante le prossime elezioni e i nuovi traguardi raggiunti dall’intelligenza artificiale?

L'intelligenza artificiale in politica: prevedere le elezioni e l'opinione pubblica utilizzando i LLM
Immagine creata da Stable Diffusion / Metaverse Post

Durante le recenti udienze al Senato, Il senatore Josh Hawley del Missouri ha sollevato questa questione critica nel contesto dei modelli linguistici. Ha fatto riferimento ad un articolo intitolato “I modelli linguistici formati sulla dieta dei media possono prevedere l’opinione pubblica" Scritto da ricercatori del MIT e Stanford. Questa ricerca esplora il potenziale dell’utilizzo delle reti neurali per prevedere l’opinione pubblica sulla base di articoli di notizie, un concetto che potrebbe avere un impatto significativo sulle campagne politiche.

Leggi Anche: ChatGPTIl libertarismo di sinistra ha implicazioni per il futuro delle giovani generazioni

L'articolo descrive una metodologia in cui i modelli linguistici vengono inizialmente addestrati su insiemi specifici di articoli di notizie per prevedere le parole mancanti in un dato contesto, simile a modelli BERT. Il passaggio successivo prevede l'assegnazione di un punteggio, indicato con “s”, per valutare le prestazioni del modello. Ecco una panoramica del processo:

  1. Viene formulata ad esempio una tesi: “Richiesta di chiudere la maggior parte delle attività commerciali, ad eccezione dei negozi di alimentari e delle farmacie, per combattere l’epidemia di coronavirus”.
  2. In particolare, c'è un vuoto nella tesi. I modelli linguistici vengono utilizzati per stimare le probabilità di colmare questa lacuna con parole specifiche.
  3. Viene valutata la probabilità di varie parole, come "necessario" o "inutilmente".
  4. Questa probabilità è normalizzata rispetto a un modello di base poco addestrato, che misura in modo indipendente la frequenza di una parola che si verifica in un dato contesto. La frazione risultante rappresenta il punteggio “s”, che caratterizza le nuove informazioni introdotte dal dataset dai media riguardanti le conoscenze esistenti.

Il modello tiene conto del livello di coinvolgimento di un particolare gruppo di individui con notizie su un argomento specifico. Questo livello aggiuntivo migliora la qualità della previsione, misurata dalla correlazione tra le previsioni del modello e le opinioni delle persone riguardo alla tesi originale.

Il segreto sta nel fatto che tesi e notizie sono state categorizzate in base alla data. Studiando le notizie relative ai primi mesi dell'epidemia di coronavirus è stato possibile anticipare le reazioni delle persone alle misure e ai cambiamenti proposti.

I parametri potrebbero non sembrare impressionanti e gli stessi autori sottolineano che i loro risultati non implicano che l’intelligenza artificiale possa sostituire completamente il coinvolgimento umano nel processo, o i modelli possono sostituire i sondaggi umani. Invece questi Strumenti di intelligenza artificiale servire come aiuto per riassumere grandi quantità di dati e identificare aree potenzialmente fruttuose per ulteriori esplorazioni.

È interessante notare che un senatore è arrivato a una conclusione diversa, esprimendo preoccupazione per i modelli che funzionano troppo bene e per i potenziali pericoli ad essi associati. C'è una certa validità in questa prospettiva, considerando che l'articolo presenta modelli piuttosto basilari e iterazioni future simili GPT-4 potrebbe potenzialmente offrire miglioramenti significativi.

Leggi Anche: OpenAI'S GPT-4 si propone di rivoluzionare la moderazione dei contenuti

La sfida crescente della manipolazione dei social network guidata dall’intelligenza artificiale

Nelle discussioni recenti, la conversazione si è allontanata dalle imminenti elezioni presidenziali e si è spostata verso il tema preoccupante dell’utilizzo di modelli linguistici (LLM), anche su scala localizzata, per fabbricare e popolare account falsi sui social network. Questa discussione sottolinea il potenziale dell’automazione delle fabbriche di troll con un’enfasi sulla propaganda e sull’influenza ideologica.

Anche se questo potrebbe non sembrare innovativo considerando la tecnologia già in uso, la differenza sta nella scala. Gli LLM possono essere utilizzati in modo continuativo, limitati solo dal budget GPU assegnato. Inoltre, per mantenere conversazioni e thread, bot aggiuntivi meno avanzati possono partecipare alle discussioni e rispondere. La loro efficacia nel persuadere gli utenti è dubbia. Un bot ben realizzato cambierà davvero la posizione politica di qualcuno, spingendolo a pensare: “Cosa hanno fatto questi democratici? Dovrei votare per i repubblicani”?

Immagine creata da Stable Diffusion / Metaverse Post

Tentare di assegnare un dipendente troll a ciascun utente online per la persuasione sistematica non è pratico, ricorda la battuta “metà seduto, metà in piedi”. Al contrario, un bot dotato di reti neurali avanzate rimane instancabile, capace di interagire con decine di milioni di individui contemporaneamente.

Una potenziale contromisura prevede la preparazione Social Media account simulando comportamenti simili a quelli umani. I bot possono imitare gli utenti autentici discutendo esperienze personali e pubblicando contenuti diversi mantenendo un’apparenza di normalità.

Anche se questo potrebbe non essere un problema urgente nel 2024, è sempre più probabile che diventi una sfida significativa entro il 2028. Affrontare questo problema pone un dilemma complesso. I social network dovrebbero essere disabilitati durante la stagione elettorale? Irrealizzabile. Educare il pubblico a non farlo fidarsi indiscutibilmente dei contenuti online? Poco pratico. Perdere le elezioni a causa della manipolazione? Indesiderabile.

Un’alternativa potrebbe comportare la moderazione avanzata dei contenuti. La carenza di moderatori umani e la limitata efficacia dei modelli di rilevamento del testo esistenti, anche quelli di OpenAI, mettono in dubbio la fattibilità di questa soluzione.

OpenAI'S GPT-4 Aggiorna la moderazione dei contenuti con un rapido adattamento delle regole

OpenAI, sotto la guida di Lilian Weng, ha recentemente introdotto un progetto chiamato “utilizzando GPT-4 per la moderazione dei contenuti.Ciò accelera il processo di aggiornamento delle regole di moderazione dei contenuti, riducendo la tempistica da mesi a semplici ore. GPT-4 mostra un'eccezionale capacità di comprendere regole e sottigliezze all'interno di linee guida complete sui contenuti, adattandosi istantaneamente a qualsiasi revisione, garantendo così una valutazione dei contenuti più coerente.

Questo sofisticato sistema di moderazione dei contenuti è ingegnosamente semplice, come dimostrato in una GIF di accompagnamento. Ciò che lo distingue è GPT-4Ha una notevole competenza nel comprendere il testo scritto, un'impresa non universalmente padroneggiata nemmeno dagli esseri umani.

Ecco come funziona:

  1. Dopo aver redatto linee guida o istruzioni per la moderazione, gli esperti selezionano un set di dati limitato contenente casi di violazioni e assegnano le etichette corrispondenti in conformità alla politica di violazione.
  2. GPT-4 successivamente comprende l'insieme di regole ed etichetta i dati senza accedere alle risposte.
  3. In caso di disparità tra GPT-4 risposte e giudizi umani, gli esperti possono sollecitare chiarimenti GPT-4, analizzare le ambiguità all'interno dell'istruzione definizioni e dissipare ogni confusione attraverso ulteriori chiarimenti, contrassegnati con il testo del passaggio blu nella GIF.

Questo processo iterativo dei passaggi 2 e 3 può essere ripetuto finché le prestazioni dell'algoritmo non soddisfano lo standard desiderato. Per applicazioni su larga scala, GPT-4 le previsioni possono essere utilizzate per addestrare un modello significativamente più piccolo, in grado di fornire una qualità comparabile.

OpenAI ha divulgato parametri per la valutazione di 12 distinti tipi di violazioni. In media, il modello supera i moderatori di contenuti standard, ma è ancora in ritardo rispetto all’esperienza di moderatori umani esperti e ben addestrati. Tuttavia, un aspetto interessante è il suo rapporto costo-efficacia.

Vale la pena notare che sono stati utilizzati modelli di machine learning auto-moderazione per diversi anni. L'introduzione di GPT-4 è pronto a inaugurare nuove innovazioni, in particolare nel campo della politica e delle elezioni. C'è anche questa ipotesi OpenAI potrebbe diventare il fornitore esclusivo della TrueModerationAPI™ ufficialmente autorizzata da Casa Bianca, soprattutto alla luce dei loro recenti sforzi di partnership. Il futuro riserva interessanti possibilità in questo settore.

Per saperne di più sull'intelligenza artificiale:

Negazione di responsabilità

In linea con la Linee guida del progetto Trust, si prega di notare che le informazioni fornite in questa pagina non intendono essere e non devono essere interpretate come consulenza legale, fiscale, di investimento, finanziaria o di qualsiasi altra forma. È importante investire solo ciò che puoi permetterti di perdere e chiedere una consulenza finanziaria indipendente in caso di dubbi. Per ulteriori informazioni, suggeriamo di fare riferimento ai termini e alle condizioni nonché alle pagine di aiuto e supporto fornite dall'emittente o dall'inserzionista. MetaversePost si impegna a fornire report accurati e imparziali, ma le condizioni di mercato sono soggette a modifiche senza preavviso.

Circa l'autore

Damir è il team leader, il product manager e l'editore di Metaverse Post, che copre argomenti come AI/ML, AGI, LLM, Metaverse e Web3campi correlati. I suoi articoli attirano un vasto pubblico di oltre un milione di utenti ogni mese. Sembra essere un esperto con 10 anni di esperienza in SEO e marketing digitale. Damir è stato menzionato in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e altre pubblicazioni. Viaggia tra Emirati Arabi Uniti, Turchia, Russia e CSI come nomade digitale. Damir ha conseguito una laurea in fisica, che secondo lui gli ha fornito le capacità di pensiero critico necessarie per avere successo nel panorama in continua evoluzione di Internet. 

Altri articoli
Damir Jalalov
Damir Jalalov

Damir è il team leader, il product manager e l'editore di Metaverse Post, che copre argomenti come AI/ML, AGI, LLM, Metaverse e Web3campi correlati. I suoi articoli attirano un vasto pubblico di oltre un milione di utenti ogni mese. Sembra essere un esperto con 10 anni di esperienza in SEO e marketing digitale. Damir è stato menzionato in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e altre pubblicazioni. Viaggia tra Emirati Arabi Uniti, Turchia, Russia e CSI come nomade digitale. Damir ha conseguito una laurea in fisica, che secondo lui gli ha fornito le capacità di pensiero critico necessarie per avere successo nel panorama in continua evoluzione di Internet. 

Hot Stories
Iscriviti alla nostra newsletter.
Notizie

Da Ripple a The Big Green DAO: come i progetti di criptovaluta contribuiscono alla beneficenza

Esploriamo le iniziative che sfruttano il potenziale delle valute digitali per cause di beneficenza.

Per saperne di più

AlphaFold 3, Med-Gemini e altri: il modo in cui l'intelligenza artificiale trasforma l'assistenza sanitaria nel 2024

L'intelligenza artificiale si manifesta in vari modi nel settore sanitario, dalla scoperta di nuove correlazioni genetiche al potenziamento dei sistemi chirurgici robotici...

Per saperne di più
Unisciti alla nostra comunità tecnologica innovativa
Scopri di più
Per saperne di più
Manta Network introduce lo staking nativo, consentendo agli utenti di effettuare staking su MANTA con lo staking Omni Liquid
Mercati Notizie Tecnologia
Manta Network introduce lo staking nativo, consentendo agli utenti di effettuare staking su MANTA con lo staking Omni Liquid
15 Maggio 2024
Bloomberg: inizia la fase di consolidamento post-halving prima che Bitcoin ritorni al suo massimo storico
Mercati Notizie Tecnologia
Bloomberg: inizia la fase di consolidamento post-halving prima che Bitcoin ritorni al suo massimo storico
15 Maggio 2024
Vitalik Buterin pubblica la proposta EIP-7706 per introdurre un nuovo tipo di gas per le transazioni Ethereum Calldata
Notizie Tecnologia
Vitalik Buterin pubblica la proposta EIP-7706 per introdurre un nuovo tipo di gas per le transazioni Ethereum Calldata
14 Maggio 2024
Il token WLD di Worldcoin affronterà la pressione di vendita aggressiva con ulteriori sblocchi nei prossimi mesi, avverte DeFi2 Bybit commerciante
Mercati Notizie Tecnologia
Il token WLD di Worldcoin affronterà la pressione di vendita aggressiva con ulteriori sblocchi nei prossimi mesi, avverte DeFi2 Bybit commerciante
14 Maggio 2024
LABORATORI DI CRITTOMERIA PTE. srl.