Názor Technika
Září 11, 2023

Umělá inteligence v politice: Předvídání voleb a veřejného mínění pomocí LLM

Stručně

Jak se blíží 60. prezidentské volby v USA, role internetu a sociálních sítí při utváření politického diskurzu je pod drobnohledem, zejména po skandálu Cambridge Analytica. Očekává se, že se digitální prostředí změní s pokroky v AI, jako jsou jazykové modely trénované na mediální dietě a OpenAIJe GPT-4.

Dalším problémem je potenciál pro manipulaci se sociální sítí řízenou umělou inteligencí, jako je automatizace továren na trolly a moderování obsahu. OpenAIJe GPT-4 byla zavedena s cílem urychlit proces aktualizace pravidel pro moderování obsahu a zkrátit časovou osu z měsíců na pouhé hodiny. Model v průměru překonává standardní moderátory obsahu, ale stále zaostává za odborností zkušených lidských moderátorů.

Zavedení GPT-4 je připravena uvést nové inovace, zejména v politice a volbách, se spekulacemi, že OpenAI by se mohl stát výhradním poskytovatelem.

S blížícími se 60. prezidentskými volbami ve Spojených státech je role internetu a sociálních sítí při utváření politického diskurzu pod drobnohledem, zejména v důsledku Cambridge Analytica skandál. Nabízí se významná otázka: Jak bude vypadat digitální krajina během nadcházejících voleb a nových úspěchů v AI?

Umělá inteligence v politice: Předvídání voleb a veřejného mínění pomocí LLM
Obrázek vytvořil Stable Diffusion / Metaverse Post

Během nedávných slyšení v Senátu Senátor Josh Hawley z Missouri nastolil tento kritický problém v kontextu jazykových modelů. Odkázal na článek s názvem „Jazykové modely vyškolené na mediální dietě mohou předvídat veřejné mínění“, jehož autory jsou výzkumníci z MIT a Stanfordu. Tento výzkum zkoumá potenciál využití neuronových sítí k predikci veřejného mínění na základě novinových článků, což je koncept, který by mohl významně ovlivnit politické kampaně.

PODOBNÉ ČLÁNKY: ChatGPTLevicový libertariánství má důsledky pro budoucnost mladé generace

Článek popisuje metodologii, kde jsou jazykové modely zpočátku trénovány na konkrétních sadách novinové články předpovídat chybějící slova v daném kontextu, podobně jako Modely BERT. Následující krok zahrnuje přiřazení skóre, označeného jako „s“, k vyhodnocení výkonu modelu. Zde je přehled procesu:

  1. Prohlášení teze je formulováno například „Požadavek na uzavření většiny podniků, kromě obchodů s potravinami a lékáren, za účelem boje s propuknutím koronaviru“.
  2. Pozoruhodné je, že v práci je prázdné místo. Jazykové modely se používají k odhadu pravděpodobnosti doplnění této mezery konkrétními slovy.
  3. Posuzuje se pravděpodobnost různých slov, jako je „nezbytné“ nebo „zbytečně“.
  4. Tato pravděpodobnost je normalizována vzhledem k základnímu modelu nedotrénování, který nezávisle měří frekvenci slova vyskytujícího se v daném kontextu. Výsledný zlomek představuje skóre „s“, které charakterizuje nové informace vnesené datovým souborem z médií o existujících znalostech.

Model zohledňuje míru zapojení určité skupiny jednotlivců do zpráv na určité téma. Tato další vrstva zvyšuje kvalitu predikce, měřenou korelací mezi předpovědí modelu a názory lidí na původní tezi.

Tajemství spočívá ve skutečnosti, že práce a zprávy byly kategorizovány na základě jejich data. Studiem zpráv souvisejících s prvními měsíci propuknutí koronaviru bylo možné předvídat reakce lidí na navrhovaná opatření a změny.

Metriky nemusí působit působivě a sami autoři zdůrazňují, že z jejich zjištění nevyplývá, že umělá inteligence může zcela nahradit lidské zapojení do procesu, popř. modely mohou nahradit lidské průzkumy. Místo toho tyto Nástroje AI slouží jako pomůcka při shrnutí obrovského množství dat a identifikaci potenciálně plodných oblastí pro další průzkum.

Je zajímavé, že senátor dospěl k jinému závěru a vyjádřil obavy z příliš dobrých výkonů modelů a potenciálních nebezpečí s tím spojených. Tato perspektiva má určitou platnost, vezmeme-li v úvahu, že článek představuje spíše základní modely a budoucí iterace GPT-4 může potenciálně nabídnout významná zlepšení.

PODOBNÉ ČLÁNKY: OpenAIJe GPT-4 Stanoví revoluci v moderování obsahu

Rostoucí výzva manipulace na sociálních sítích řízené umělou inteligencí

V nedávných diskusích se konverzace odklonila od blížících se prezidentských voleb a směřovala k příslušnému tématu využití modelů jazykových modelů (LLM), a to i v lokalizovaném měřítku, k výrobě a naplňování falešných účtů na sociálních sítích. Tato diskuse podtrhuje potenciál pro automatizaci továren na trolly s důrazem na propagandu a ideologický vliv.

I když se to nemusí zdát převratné s ohledem na již používanou technologii, rozdíl spočívá v měřítku. LLM mohou být zaměstnány nepřetržitě, omezeny pouze přiděleným rozpočtem GPU. Kromě toho se pro udržování konverzací a vláken mohou do diskusí zapojovat a odpovídat i další, méně pokročilí roboti. Jejich účinnost při přesvědčování uživatelů je pochybná. Změní dobře vytvořený bot skutečně něčí politický postoj a přiměje ho k zamyšlení: „Co ti demokraté udělali? Měl bych volit republikány“?

Obrázek vytvořil Stable Diffusion / Metaverse Post

Pokoušet se přidělit každému online uživateli zaměstnance trolla za účelem systematického přesvědčování je nepraktické a připomíná vtip „napůl sedí, napůl stojí“. Naproti tomu bot vybavený pokročilými neuronovými sítěmi zůstává neúnavný a dokáže se zapojit do desítek milionů jedinců současně.

Potenciální protiopatření zahrnuje přípravu sociální média simulací lidského chování. Boti mohou napodobovat skutečné uživatele tím, že diskutují o osobních zkušenostech a zveřejňují různorodý obsah, přičemž si zachovávají zdání normálnosti.

I když to v roce 2024 nemusí být naléhavým problémem, je stále více pravděpodobné, že se do roku 2028 stane významnou výzvou. Řešení tohoto problému představuje složité dilema. Měly by se během volebního období deaktivovat sociální sítě? Nerealizovatelné. Vzdělávat veřejnost, aby ne nepochybně důvěřovat online obsahu? Nepraktický. Prohrát volby kvůli manipulaci? Nežádoucí.

Alternativou může být pokročilé moderování obsahu. Nedostatek lidských moderátorů a omezená účinnost stávajících modelů detekce textu, a to i těch z OpenAI, vzbuzují pochybnosti o životaschopnosti tohoto řešení.

OpenAIJe GPT-4 Aktualizuje moderování obsahu pomocí rychlého přizpůsobení pravidel

OpenAI, pod vedením Lilian Weng, nedávno představila projekt s názvem „Použití GPT-4 pro moderování obsahu.To urychluje proces aktualizace pravidel pro moderování obsahu a zkracuje časovou osu z měsíců na pouhé hodiny. GPT-4 vykazuje výjimečnou schopnost porozumět pravidlům a jemnostem v rámci komplexních pokynů k obsahu, okamžitě se přizpůsobuje jakýmkoli revizím, čímž zajišťuje konzistentnější hodnocení obsahu.

Tento sofistikovaný systém moderování obsahu je důmyslně přímočarý, jak ukazuje doprovodný GIF. To, co to odlišuje, je GPT-4's pozoruhodnou dovedností v porozumění psanému textu, což je výkon, který není univerzálně zvládnutý ani lidmi.

Funguje to takto:

  1. Po vypracování pokynů pro moderování nebo pokynů odborníci vyberou omezený soubor dat obsahující případy porušení a přiřadí odpovídající štítky v souladu se zásadami porušení.
  2. GPT-4 následně pochopí sadu pravidel a označí data bez přístupu k odpovědím.
  3. V případech rozdílů mezi GPT-4 reakce a lidské úsudky, od kterých si mohou odborníci vyžádat vysvětlení GPT-4analyzovat nejasnosti v instrukci defia rozptýlit jakýkoli zmatek pomocí dodatečného upřesnění, označeného modrým textem kroku v GIF.

Tento iterativní proces kroků 2 a 3 lze opakovat, dokud výkon algoritmu nesplní požadovaný standard. Pro rozsáhlé aplikace, GPT-4 předpovědi lze použít k trénování výrazně menšího modelu, který může poskytovat srovnatelnou kvalitu.

OpenAI zveřejnila metriky pro hodnocení 12 různých typů porušení. Model v průměru překonává standardní moderátory obsahu, ale stále zaostává za odborností ostřílených a dobře trénovaných lidských moderátorů. Nicméně jedním přesvědčivým aspektem je jeho nákladová efektivita.

Stojí za zmínku, že byly použity modely strojového učení automatické moderování po dobu několika let. Zavedení GPT-4 je připravena zavést nové inovace, zejména v oblasti politiky a voleb. Dokonce se o tom spekuluje OpenAI by se mohl stát výhradním poskytovatelem oficiálně schváleného TrueModerationAPI™ společností Bílý dům, zejména s ohledem na jejich nedávné partnerské snahy. Budoucnost v této oblasti nabízí vzrušující možnosti.

Přečtěte si více o AI:

Odmítnutí odpovědnosti

V souladu s Pokyny k projektu Trust, prosím vezměte na vědomí, že informace uvedené na této stránce nejsou určeny a neměly by být vykládány jako právní, daňové, investiční, finanční nebo jakékoli jiné formy poradenství. Je důležité investovat jen to, co si můžete dovolit ztratit, a v případě pochybností vyhledat nezávislé finanční poradenství. Pro další informace doporučujeme nahlédnout do smluvních podmínek a také na stránky nápovědy a podpory poskytnuté vydavatelem nebo inzerentem. MetaversePost se zavázala poskytovat přesné a nezaujaté zprávy, ale podmínky na trhu se mohou bez upozornění změnit.

O autorovi

Damir je vedoucí týmu, produktový manažer a editor ve společnosti Metaverse Post, pokrývající témata jako AI/ML, AGI, LLM, Metaverse a Web3- související obory. Jeho články přitahují každý měsíc masivní publikum čítající více než milion uživatelů. Jeví se jako odborník s 10 lety zkušeností v oblasti SEO a digitálního marketingu. Damir byl zmíněn v Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto a další publikace. Jako digitální nomád cestuje mezi SAE, Tureckem, Ruskem a SNS. Damir získal bakalářský titul z fyziky, o kterém se domnívá, že mu dal dovednosti kritického myšlení potřebné k úspěchu v neustále se měnícím prostředí internetu. 

Další články
Damir Yalalov
Damir Yalalov

Damir je vedoucí týmu, produktový manažer a editor ve společnosti Metaverse Post, pokrývající témata jako AI/ML, AGI, LLM, Metaverse a Web3- související obory. Jeho články přitahují každý měsíc masivní publikum čítající více než milion uživatelů. Jeví se jako odborník s 10 lety zkušeností v oblasti SEO a digitálního marketingu. Damir byl zmíněn v Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto a další publikace. Jako digitální nomád cestuje mezi SAE, Tureckem, Ruskem a SNS. Damir získal bakalářský titul z fyziky, o kterém se domnívá, že mu dal dovednosti kritického myšlení potřebné k úspěchu v neustále se měnícím prostředí internetu. 

Institucionální apetit roste směrem k bitcoinovým ETF uprostřed volatility

Zveřejnění prostřednictvím podání 13F odhaluje, že pozoruhodní institucionální investoři fušují do bitcoinových ETF, což podtrhuje rostoucí akceptaci...

Vědět více

Přichází den odsouzení: Osud CZ visí v rovnováze, protože americký soud zvažuje žalobu ministerstva spravedlnosti

Changpeng Zhao je dnes připraven čelit rozsudku u amerického soudu v Seattlu.

Vědět více
Připojte se k naší komunitě inovativních technologií
Více
Dozvědět se více
Orbiter Finance spolupracuje se sítí Bitcoin Layer 2 Zulu a nasazuje na Is Lwazi Testnet
Business Novinky Technika
Orbiter Finance spolupracuje se sítí Bitcoin Layer 2 Zulu a nasazuje na Is Lwazi Testnet 
7
Crypto Exchange Bybit integruje USDe společnosti Ethena Labs jako kolaterál, umožňuje obchodní páry BTC-USDe a ETH-USDe
Trhy Novinky Technika
Crypto Exchange Bybit integruje USDe společnosti Ethena Labs jako kolaterál, umožňuje obchodní páry BTC-USDe a ETH-USDe
7
Bitget Wallet představuje GetDrop Airdrop Platforma a spouští první událost meme coin s cenovým fondem 130,000 XNUMX $
Trhy Novinky Technika
Bitget Wallet představuje GetDrop Airdrop Platforma a spouští první událost meme coin s cenovým fondem 130,000 XNUMX $
7
Od Simple Reflex k Learning Agents: Podívejte se na různé typy AI agentů a jejich role v moderních aplikacích
Životní styl Vývoj Příběhy a recenze Technika
Od Simple Reflex k Learning Agents: Podívejte se na různé typy AI agentů a jejich role v moderních aplikacích
7
CRYPTOMERIA LABS PTE. LTD.