Yttrande Teknologi
September 11, 2023

AI i politik: Förutsäga val och opinion med hjälp av LLM

I korthet

När det 60:e amerikanska presidentvalet närmar sig granskas internets och sociala nätverks roll för att forma politisk diskurs, särskilt i efterdyningarna av Cambridge Analytica-skandalen. Det digitala landskapet förväntas förändras med framsteg inom AI, såsom språkmodeller tränade på mediedieter och OpenAIÄr GPT-4.

En annan fråga är potentialen för AI-driven manipulation av sociala nätverk, som att automatisera trollfabriker och moderera innehåll. OpenAIÄr GPT-4 har introducerats för att påskynda processen med att uppdatera reglerna för innehållsmoderering, vilket minskar tidslinjen från månader till bara timmar. Modellen överträffar standardinnehållsmoderatorer i genomsnitt men ligger fortfarande efter expertis hos erfarna mänskliga moderatorer.

Införandet av GPT-4 är redo att inleda nya innovationer, särskilt inom politik och val, med spekulationer om det OpenAI kan bli den exklusiva leverantören.

När det 60:e presidentvalet i USA närmar sig granskas internets och sociala nätverks roll för att forma den politiska diskursen, särskilt i efterdyningarna av Cambridge Analytica-skandalen. En viktig fråga uppstår: Hur kommer det digitala landskapet att se ut under de kommande valen och nya landvinningar inom AI?

AI i politik: Förutsäga val och opinion med hjälp av LLM
Bild skapad av Stable Diffusion / Metaverse Post

Under de senaste utfrågningarna i senaten, Senator Josh Hawley från Missouri tog upp denna kritiska fråga i samband med språkmodeller. Han hänvisade till en artikel med titeln "Språkmodeller som tränas på mediadieter kan förutsäga allmänhetens åsikter” författad av forskare från MIT och Stanford. Denna forskning undersöker potentialen i att använda neurala nätverk för att förutsäga den allmänna opinionen baserat på nyhetsartiklar, ett koncept som avsevärt kan påverka politiska kampanjer.

Relaterad: ChatGPTVänsterlibertarianismen har konsekvenser för den unga generationens framtid

Artikeln beskriver en metodik där språkmodeller initialt tränas på specifika uppsättningar av nyhetsartiklar att förutsäga saknade ord inom ett givet sammanhang, liknande BERT-modeller. Det efterföljande steget innebär att man tilldelar ett poäng, betecknat som "s", för att utvärdera modellens prestanda. Här är en översikt över processen:

  1. Ett avhandlingsutlåtande formuleras till exempel, "Begäran om nedläggning av de flesta företag, förutom livsmedelsbutiker och apotek, för att bekämpa coronavirusutbrottet."
  2. Noterbart är att det finns ett tomrum i avhandlingen. Språkmodeller används för att uppskatta sannolikheten för att fylla denna lucka med specifika ord.
  3. Sannolikheten för olika ord, som "nödvändigt" eller "onödigt", bedöms.
  4. Denna sannolikhet är normaliserad i förhållande till en undertränad basmodell, som mäter frekvensen av ett ord som förekommer i ett givet sammanhang oberoende. Den resulterande fraktionen representerar poängen "s", som kännetecknar den nya informationen som introduceras av datasetet från media om befintlig kunskap.

Modellen står för graden av engagemang hos en viss grupp individer med nyheter om ett specifikt ämne. Detta ytterligare lager förbättrar prediktionskvaliteten, mätt genom korrelationen mellan modellens förutsägelser och människors åsikter om den ursprungliga avhandlingen.

Hemligheten ligger i det faktum att avhandlingar och nyheter kategoriserades utifrån deras datum. Genom att studera nyheterna relaterade till de första månaderna av coronavirusutbrottet blev det möjligt att förutse människors reaktioner på föreslagna åtgärder och förändringar.

Mätvärdena kanske inte verkar imponerande, och författarna själva betonar att deras resultat inte innebär att AI helt kan ersätta mänskligt engagemang i processen, eller modeller kan ersätta mänskliga undersökningar. Istället dessa AI-verktyg tjäna som hjälpmedel för att sammanfatta stora mängder data och identifiera potentiellt fruktbara områden för vidare utforskning.

Intressant nog kom en senator fram till en annan slutsats och uttryckte oro över att modellerna fungerar för bra och de potentiella farorna som är förknippade med detta. Det finns en viss giltighet i detta perspektiv, med tanke på att artikeln visar upp ganska grundläggande modeller och framtida iterationer som GPT-4 skulle kunna erbjuda betydande förbättringar.

Relaterad: OpenAIÄr GPT-4 Strävar efter att revolutionera innehållsmoderering

Den växande utmaningen med AI-driven manipulation av sociala nätverk

Under de senaste diskussionerna styrde samtalet bort från det förestående presidentvalet och mot det oroande ämnet att använda språkmodeller (LLMs), även i lokal skala, för att tillverka och fylla i falska konton över sociala nätverk. Denna diskussion understryker potentialen för att automatisera trollfabriker med betoning på propaganda och ideologiskt inflytande.

Även om detta kanske inte verkar banbrytande med tanke på den teknik som redan används, ligger skillnaden i skalan. LLM:er kan användas kontinuerligt, endast begränsat av den tilldelade GPU-budgeten. Dessutom, för att upprätthålla konversationer och trådar, kan ytterligare, mindre avancerade bots gå med i diskussioner och svara. Deras effektivitet när det gäller att övertyga användare är tveksam. Kommer en välarbetad bot verkligen att förändra någons politiska hållning och få dem att tänka: "Vad har dessa demokrater gjort? Jag borde rösta på republikanerna”?

Bild skapad av Stable Diffusion / Metaverse Post

Att försöka tilldela en trollanställd till varje onlineanvändare för systematisk övertalning är opraktisk, påminner om skämtet "hälften sitter, hälften står." Däremot förblir en bot med avancerade neurala nätverk outtröttlig och kan engagera sig med tiotals miljoner individer samtidigt.

En potentiell motåtgärd innebär förberedelser sociala medier konton genom att simulera mänskligt beteende. Bots kan efterlikna äkta användare genom att diskutera personliga upplevelser och posta varierat innehåll samtidigt som de behåller ett normalt utseende.

Även om detta kanske inte är en brådskande fråga 2024, kommer det allt mer sannolikt att bli en betydande utmaning 2028. Att ta itu med detta problem utgör ett komplext dilemma. Ska sociala nätverk stängas av under valsäsongen? Omöjligt. Att utbilda allmänheten att inte utan tvekan lita på innehåll på nätet? Opraktisk. Förlora val på grund av manipulation? Oönskad.

Ett alternativ kan innebära avancerad innehållsmoderering. Bristen på mänskliga moderatorer och den begränsade effektiviteten hos befintliga textdetekteringsmodeller, även de från OpenAIställer tvivel om hållbarheten av denna lösning.

OpenAIÄr GPT-4 Uppdaterar innehållsmoderering med snabb regelanpassning

OpenAI, under ledning av Lilian Weng, har nyligen introducerat ett projekt som heter "Använda GPT-4 för innehållsmoderering.” Detta påskyndar processen med att uppdatera reglerna för innehållsmoderering, vilket minskar tidslinjen från månader till bara timmar. GPT-4 uppvisar en exceptionell förmåga att förstå regler och subtiliteter inom omfattande innehållsriktlinjer, och omedelbart anpassa sig till eventuella ändringar, och därigenom säkerställa en mer konsekvent innehållsbedömning.

Detta sofistikerade system för innehållsmoderering är genialiskt okomplicerat, vilket visas i en medföljande GIF. Det som skiljer det åt är GPT-4s anmärkningsvärda skicklighet i att förstå skriven text, en bedrift som inte ens bemästras universellt av människor.

Så här fungerar det:

  1. Efter att ha utarbetat modereringsriktlinjer eller instruktioner väljer experter en begränsad datauppsättning som innehåller fall av överträdelser och tilldelar motsvarande etiketter i enlighet med överträdelsepolicyn.
  2. GPT-4 förstår därefter regeluppsättningen och märker data utan åtkomst till svaren.
  3. I fall av skillnader mellan GPT-4 svar och mänskliga bedömningar kan experter begära förtydliganden från GPT-4, analysera oklarheter i instruktionen defioch skingra all förvirring genom ytterligare förtydliganden, markerad med blå stegtext i GIF.

Denna iterativa process av steg 2 och 3 kan upprepas tills algoritmens prestanda uppfyller den önskade standarden. För storskaliga applikationer, GPT-4 förutsägelser kan användas för att träna en betydligt mindre modell, som kan leverera jämförbar kvalitet.

OpenAI har avslöjat statistik för att bedöma 12 olika typer av överträdelser. I genomsnitt överträffar modellen standardinnehållsmoderatorer, men den ligger fortfarande efter expertisen hos erfarna och välutbildade mänskliga moderatorer. Ändå är en övertygande aspekt dess kostnadseffektivitet.

Det är värt att notera att maskininlärningsmodeller har använts i automatisk moderering i flera år. Introduktionen av GPT-4 är redo att inleda nya innovationer, särskilt när det gäller politik och val. Det finns till och med spekulationer om det OpenAI kan bli den exklusiva leverantören av den officiellt sanktionerade TrueModerationAPI™ av VITA HUSET, särskilt mot bakgrund av deras senaste partnerskapssträvanden. Framtiden erbjuder spännande möjligheter inom detta område.

Läs mer om AI:

Villkor

I linje med den Riktlinjer för Trust Project, vänligen notera att informationen på den här sidan inte är avsedd att vara och inte ska tolkas som juridisk, skattemässig, investerings-, finansiell eller någon annan form av rådgivning. Det är viktigt att bara investera det du har råd att förlora och att söka oberoende finansiell rådgivning om du har några tvivel. För ytterligare information föreslår vi att du hänvisar till villkoren samt hjälp- och supportsidorna som tillhandahålls av utfärdaren eller annonsören. MetaversePost är engagerad i korrekt, opartisk rapportering, men marknadsförhållandena kan ändras utan föregående meddelande.

Om författaren

Damir är teamledare, produktchef och redaktör på Metaverse Post, som täcker ämnen som AI/ML, AGI, LLMs, Metaverse och Web3-relaterade områden. Hans artiklar lockar en massiv publik på över en miljon användare varje månad. Han verkar vara en expert med 10 års erfarenhet av SEO och digital marknadsföring. Damir har nämnts i Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto och andra publikationer. Han reser mellan Förenade Arabemiraten, Turkiet, Ryssland och OSS som en digital nomad. Damir tog en kandidatexamen i fysik, som han tror har gett honom de kritiska tänkande färdigheter som behövs för att bli framgångsrik i det ständigt föränderliga landskapet på internet. 

fler artiklar
Damir Yalalov
Damir Yalalov

Damir är teamledare, produktchef och redaktör på Metaverse Post, som täcker ämnen som AI/ML, AGI, LLMs, Metaverse och Web3-relaterade områden. Hans artiklar lockar en massiv publik på över en miljon användare varje månad. Han verkar vara en expert med 10 års erfarenhet av SEO och digital marknadsföring. Damir har nämnts i Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto och andra publikationer. Han reser mellan Förenade Arabemiraten, Turkiet, Ryssland och OSS som en digital nomad. Damir tog en kandidatexamen i fysik, som han tror har gett honom de kritiska tänkande färdigheter som behövs för att bli framgångsrik i det ständigt föränderliga landskapet på internet. 

Institutionell aptit växer mot Bitcoin ETFs mitt i volatilitet

Avslöjande genom 13F-anmälningar avslöjar anmärkningsvärda institutionella investerare som sysslar med Bitcoin ETF:er, vilket understryker en växande acceptans av ...

Lär dig mer

Straffdagen anländer: CZ:s öde hänger i balans när den amerikanska domstolen överväger DOJ:s vädjande

Changpeng Zhao är redo att dömas i en amerikansk domstol i Seattle i dag.

Lär dig mer
Gå med i vår innovativa teknikgemenskap
Läs mer
Läs mer
Nim Network ska rulla ut AI-ägarskapstokeniseringsram och genomföra avkastningsförsäljning med ögonblicksbilddatum planerat till maj
Marknader Nyhetsrapport Teknologi
Nim Network ska rulla ut AI-ägarskapstokeniseringsram och genomföra avkastningsförsäljning med ögonblicksbilddatum planerat till maj
Maj 13, 2024
Binance samarbetar med Argentina för att bekämpa cyberbrottslighet
Yttrande Företag Marknader Nyhetsrapport Mjukvara Teknologi
Binance samarbetar med Argentina för att bekämpa cyberbrottslighet
Maj 13, 2024
Over Protocol planerar att lansera sitt huvudnät i juni eftersom dess testnät lockar över 750,000 XNUMX användare
Nyhetsrapport Teknologi
Over Protocol planerar att lansera sitt huvudnät i juni eftersom dess testnät lockar över 750,000 XNUMX användare
Maj 13, 2024
Åtgärder mot krypto i Ryssland kommer som ett förslag för att skärpa reglerna för privata gruvarbetare
Yttrande Marknader Mjukvara Teknologi
Åtgärder mot krypto i Ryssland kommer som ett förslag för att skärpa reglerna för privata gruvarbetare
Maj 13, 2024