Udtalelse Teknologier
September 11, 2023

AI i politik: Forudsigelse af valg og offentlig mening ved hjælp af LLM'er

Kort sagt

Da det 60. amerikanske præsidentvalg nærmer sig, er internettets og sociale netværks rolle i udformningen af ​​den politiske diskurs under lup, især i kølvandet på Cambridge Analytica-skandalen. Det digitale landskab forventes at ændre sig med fremskridt inden for kunstig intelligens, såsom sprogmodeller trænet på mediediæter og OpenAI's GPT-4.

Et andet problem er potentialet for AI-drevet manipulation af sociale netværk, såsom automatisering af troldefabrikker og indholdsmoderering. OpenAI's GPT-4 er blevet introduceret for at fremskynde processen med at opdatere regler for indholdsmoderering, hvilket reducerer tidslinjen fra måneder til blot timer. Modellen klarer sig i gennemsnit bedre end standardindholdsmoderatorer, men halter stadig bagefter ekspertisen hos erfarne menneskelige moderatorer.

Indførelsen af GPT-4 er klar til at indlede nye innovationer, især inden for politik og valg, med spekulationer om det OpenAI kunne blive den eksklusive udbyder.

Da det 60. præsidentvalg i USA nærmer sig, er internettets og sociale netværks rolle i udformningen af ​​den politiske diskurs under lup, især i kølvandet på Cambridge Analytica skandale. Et væsentligt spørgsmål rejser sig: Hvordan vil det digitale landskab se ud under de kommende valg og nye resultater inden for kunstig intelligens?

AI i politik: Forudsigelse af valg og offentlig mening ved hjælp af LLM'er
Billede lavet af Stable Diffusion / Metaverse Post

Under de seneste høringer i Senatet, Senator Josh Hawley fra Missouri rejste dette kritiske spørgsmål i forbindelse med sprogmodeller. Han henviste til en artikel med titlen "Sprogmodeller trænet i mediediæter kan forudsige offentlig mening” forfattet af forskere fra MIT og Stanford. Denne forskning udforsker potentialet ved at bruge neurale netværk til at forudsige den offentlige mening baseret på nyhedsartikler, et koncept, der kan påvirke politiske kampagner betydeligt.

Relaterede: ChatGPT's venstre-libertarianisme har konsekvenser for den unge generations fremtid

Artiklen beskriver en metode, hvor sprogmodeller indledningsvis trænes på specifikke sæt af nyhedsartikler at forudsige manglende ord inden for en given kontekst, svarende til BERT modeller. Det efterfølgende trin involverer at tildele en score, betegnet som "s", for at evaluere modellens ydeevne. Her er et overblik over processen:

  1. En afhandlingserklæring formuleres, for eksempel, "Anmodning om lukning af de fleste virksomheder, undtagen dagligvarebutikker og apoteker, for at bekæmpe coronavirus-udbruddet."
  2. Især er der et tomrum i afhandlingen. Sprogmodeller bruges til at estimere sandsynligheden for at fuldende dette hul med specifikke ord.
  3. Sandsynligheden for forskellige ord, såsom "nødvendigt" eller "unødvendigt", vurderes.
  4. Denne sandsynlighed er normaliseret i forhold til en basisundertrænet model, som uafhængigt måler frekvensen af ​​et ord, der forekommer i en given kontekst. Den resulterende fraktion repræsenterer scoren "s", som karakteriserer den nye information, som datasættet introducerer fra medierne om eksisterende viden.

Modellen tager højde for niveauet af engagement hos en bestemt gruppe individer med nyheder om et specifikt emne. Dette ekstra lag forbedrer forudsigelseskvaliteten, målt ved sammenhængen mellem modellens forudsigelser og folks meninger om den oprindelige afhandling.

Hemmeligheden ligger i, at afhandlinger og nyheder blev kategoriseret ud fra deres datoer. Ved at studere nyheder relateret til de første måneder af coronavirus-udbruddet, blev det muligt at forudse folks reaktioner på foreslåede foranstaltninger og ændringer.

Målingerne virker måske ikke imponerende, og forfatterne understreger selv, at deres resultater ikke antyder, at AI fuldstændigt kan erstatte menneskelig involvering i processen, eller modeller kan erstatte menneskelige undersøgelser. I stedet disse AI værktøjer tjene som hjælpemidler til at opsummere enorme mængder data og identificere potentielt frugtbare områder til yderligere udforskning.

Interessant nok nåede en senator frem til en anden konklusion og udtrykte bekymring over, at modellerne klarer sig for godt og de potentielle farer forbundet med dette. Der er en vis gyldighed i dette perspektiv, i betragtning af at artiklen viser ret grundlæggende modeller og fremtidige iterationer som f.eks. GPT-4 potentielt kan byde på væsentlige forbedringer.

Relaterede: OpenAI's GPT-4 Sætter sig for at revolutionere indholdsmoderering

Den voksende udfordring ved AI-drevet manipulation af sociale netværk

I de seneste diskussioner styrede samtalen væk fra det forestående præsidentvalg og mod det bekymrende emne om at anvende sprogmodelmodeller (LLM'er), selv på en lokal skala, til at fremstille og udfylde falske konti på tværs af sociale netværk. Denne diskussion understreger potentialet for at automatisere troldefabrikker med vægt på propaganda og ideologisk indflydelse.

Selvom dette måske ikke virker banebrydende i betragtning af den teknologi, der allerede er i brug, ligger forskellen i skalaen. LLM'er kan anvendes kontinuerligt, kun begrænset af det tildelte GPU-budget. For at vedligeholde samtaler og tråde kan yderligere, mindre avancerede bots desuden deltage i diskussioner og svare. Deres effektivitet til at overtale brugere er tvivlsom. Vil en veludviklet bot virkelig ændre nogens politiske holdning og få dem til at tænke: "Hvad har disse demokrater gjort? Jeg burde stemme på republikanerne”?

Billede lavet af Stable Diffusion / Metaverse Post

At forsøge at tildele en troldemedarbejder til hver onlinebruger for systematisk overtalelse er upraktisk, og det minder om vittigheden "halvt sidder, halvt står." I modsætning hertil forbliver en bot bemyndiget med avancerede neurale netværk utrættelig, i stand til at engagere sig med titusinder af mennesker på samme tid.

En potentiel modforanstaltning involverer forberedelse sociale medier regnskaber ved at simulere menneskelignende adfærd. Bots kan efterligne ægte brugere ved at diskutere personlige oplevelser og poste forskelligt indhold, mens de bevarer et udseende af normalitet.

Selvom dette måske ikke er et presserende problem i 2024, er det i stigende grad sandsynligt, at det bliver en væsentlig udfordring i 2028. At løse dette problem udgør et komplekst dilemma. Skal sociale netværk deaktiveres i valgsæsonen? Uigennemførligt. Opdrage offentligheden til ikke at uden tvivl stole på onlineindhold? Upraktisk. At tabe valg på grund af manipulation? Uønsket.

Et alternativ kunne involvere avanceret indholdsmoderering. Manglen på menneskelige moderatorer og den begrænsede effektivitet af eksisterende tekstgenkendelsesmodeller, selv dem fra OpenAI, sår tvivl om levedygtigheden af ​​denne løsning.

OpenAI's GPT-4 Opdaterer indholdsmoderering med hurtig regeltilpasning

OpenAI, under ledelse af Lilian Weng, har for nylig introduceret et projekt kaldet "Ved brug af GPT-4 til indholdsmoderering.” Dette fremskynder processen med at opdatere reglerne for indholdsmoderering, hvilket reducerer tidslinjen fra måneder til blot timer. GPT-4 udviser en enestående evne til at forstå regler og finesser inden for omfattende indholdsretningslinjer, og tilpasser sig øjeblikkeligt til eventuelle revisioner og sikrer derved en mere konsekvent indholdsvurdering.

Dette sofistikerede indholdsmodereringssystem er genialt ligetil, som demonstreret i en medfølgende GIF. Det der adskiller det er GPT-4s bemærkelsesværdige dygtighed til at forstå skrevet tekst, en bedrift, der ikke er universelt mestret selv af mennesker.

Sådan fungerer det:

  1. Efter at have udarbejdet retningslinjer for moderering eller instruktioner udvælger eksperter et begrænset datasæt, der indeholder tilfælde af overtrædelser, og tildeler tilsvarende etiketter i overensstemmelse med overtrædelsespolitikken.
  2. GPT-4 forstår efterfølgende regelsættet og mærker dataene uden adgang til svarene.
  3. I tilfælde af uligheder mellem GPT-4 svar og menneskelige vurderinger, kan eksperter anmode om afklaringer fra GPT-4, analysere uklarheder i instruktionen defiog fjerne enhver forvirring gennem yderligere præcisering, markeret med blå trintekst i GIF'en.

Denne iterative proces af trin 2 og 3 kan gentages, indtil algoritmens ydeevne opfylder den ønskede standard. Til store applikationer, GPT-4 forudsigelser kan bruges til at træne en væsentligt mindre model, som kan levere sammenlignelig kvalitet.

OpenAI har afsløret målinger til vurdering af 12 forskellige typer overtrædelser. I gennemsnit udkonkurrerer modellen standardindholdsmoderatorer, men den halter stadig bagefter ekspertisen hos erfarne og veluddannede menneskelige moderatorer. Ikke desto mindre er et overbevisende aspekt dets omkostningseffektivitet.

Det er værd at bemærke, at maskinlæringsmodeller er blevet brugt i automatisk moderering i flere år. Indførelsen af GPT-4 er klar til at indlede nye innovationer, især inden for politik og valg. Det er der endda spekulationer om OpenAI kunne blive den eksklusive udbyder af den officielt godkendte TrueModerationAPI™ af Hvide Hus, især i lyset af deres seneste partnerskabsbestræbelser. Fremtiden byder på spændende muligheder på dette område.

Læs mere om AI:

Ansvarsfraskrivelse

I tråd med den Trust Project retningslinjer, bemærk venligst, at oplysningerne på denne side ikke er beregnet til at være og ikke skal fortolkes som juridiske, skattemæssige, investeringsmæssige, finansielle eller nogen anden form for rådgivning. Det er vigtigt kun at investere, hvad du har råd til at tabe, og at søge uafhængig finansiel rådgivning, hvis du er i tvivl. For yderligere information foreslår vi at henvise til vilkårene og betingelserne samt hjælpe- og supportsiderne fra udstederen eller annoncøren. MetaversePost er forpligtet til nøjagtig, objektiv rapportering, men markedsforholdene kan ændres uden varsel.

Om forfatteren

Damir er teamleder, produktchef og redaktør på Metaverse Post, der dækker emner som AI/ML, AGI, LLM'er, Metaverse og Web3-relaterede felter. Hans artikler tiltrækker et massivt publikum på over en million brugere hver måned. Han ser ud til at være en ekspert med 10 års erfaring i SEO og digital markedsføring. Damir er blevet nævnt i Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto og andre publikationer. Han rejser mellem UAE, Tyrkiet, Rusland og SNG som en digital nomade. Damir tog en bachelorgrad i fysik, som han mener har givet ham de kritiske tænkningskompetencer, der er nødvendige for at få succes i internettets evigt skiftende landskab. 

Flere artikler
Damir Yalalov
Damir Yalalov

Damir er teamleder, produktchef og redaktør på Metaverse Post, der dækker emner som AI/ML, AGI, LLM'er, Metaverse og Web3-relaterede felter. Hans artikler tiltrækker et massivt publikum på over en million brugere hver måned. Han ser ud til at være en ekspert med 10 års erfaring i SEO og digital markedsføring. Damir er blevet nævnt i Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto og andre publikationer. Han rejser mellem UAE, Tyrkiet, Rusland og SNG som en digital nomade. Damir tog en bachelorgrad i fysik, som han mener har givet ham de kritiske tænkningskompetencer, der er nødvendige for at få succes i internettets evigt skiftende landskab. 

Institutionel appetit vokser mod Bitcoin ETF'er midt i volatilitet

Afsløringer gennem 13F-arkivering afslører bemærkelsesværdige institutionelle investorer, der dytter i Bitcoin ETF'er, hvilket understreger en voksende accept af ...

Vide mere

Straffeudmålingsdagen ankommer: CZ's skæbne hænger i balance, da amerikansk domstol overvejer DOJ's anbringende

Changpeng Zhao står klar til at blive dømt ved en amerikansk domstol i Seattle i dag.

Vide mere
Tilmeld dig vores innovative teknologifællesskab
Læs mere
Læs mere
Nim Network skal udrulle AI-ejerskabstokeniseringsramme og gennemføre udbyttesalg med snapshot-dato planlagt til maj
Markeder Nyheds rapport Teknologier
Nim Network skal udrulle AI-ejerskabstokeniseringsramme og gennemføre udbyttesalg med snapshot-dato planlagt til maj
Maj 13, 2024
Binance samarbejder med Argentina for at bekæmpe cyberkriminalitet
Udtalelse Forretning Markeder Nyheds rapport Software Teknologier
Binance samarbejder med Argentina for at bekæmpe cyberkriminalitet
Maj 13, 2024
Over Protocol planlægger at lancere sit hovednet i juni, da dets testnet tiltrækker over 750,000 brugere
Nyheds rapport Teknologier
Over Protocol planlægger at lancere sit hovednet i juni, da dets testnet tiltrækker over 750,000 brugere
Maj 13, 2024
Indgreb mod Crypto i Rusland kommer som et forslag om at stramme reglerne for private minearbejdere
Udtalelse Markeder Software Teknologier
Indgreb mod Crypto i Rusland kommer som et forslag om at stramme reglerne for private minearbejdere
Maj 13, 2024