Opinia Technologia
11 września 2023 r.

Sztuczna inteligencja w polityce: przewidywanie wyborów i opinii publicznej za pomocą LLM

W skrócie

W miarę zbliżania się 60. wyborów prezydenckich w USA rola Internetu i sieci społecznościowych w kształtowaniu dyskursu politycznego jest poddawana analizie, szczególnie w następstwie skandalu z Cambridge Analytica. Oczekuje się, że krajobraz cyfrowy ulegnie zmianie wraz z postępem w sztucznej inteligencji, takim jak modele językowe wyszkolone w zakresie diet medialnych i OpenAI'S GPT-4.

Inną kwestią jest możliwość manipulacji sieciami społecznościowymi w oparciu o sztuczną inteligencję, np. automatyzację fabryk trolli i moderację treści. OpenAI'S GPT-4 został wprowadzony, aby przyspieszyć proces aktualizacji zasad moderacji treści, skracając harmonogram z miesięcy do zaledwie godzin. Model ten średnio przewyższa standardowych moderatorów treści, ale nadal pozostaje w tyle za wiedzą doświadczonych moderatorów.

Wprowadzenie GPT-4 ma zamiar wprowadzić nowe innowacje, zwłaszcza w polityce i wyborach, opierając się na spekulacjach OpenAI mógłby zostać wyłącznym dostawcą.

W miarę zbliżania się 60. wyborów prezydenckich w Stanach Zjednoczonych badana jest rola Internetu i sieci społecznościowych w kształtowaniu dyskursu politycznego, zwłaszcza w następstwie Skandal z Cambridge Analytica. Rodzi się istotne pytanie: Jak będzie wyglądał cyfrowy krajobraz w czasie nadchodzących wyborów i nowych osiągnięć w AI?

Sztuczna inteligencja w polityce: przewidywanie wyborów i opinii publicznej za pomocą LLM
Obraz stworzony przez Stable Diffusion / Metaverse Post

Podczas ostatnich przesłuchań w Senacie Senator Josh Hawley z Missouri podniósł tę kluczową kwestię w kontekście modeli językowych. Odniósł się do artykułu pt.Modele językowe wyszkolone na dietach medialnych mogą przewidzieć opinię publiczną”, którego autorami są naukowcy z MIT i Stanford. W badaniu tym zbadano potencjał wykorzystania sieci neuronowych do przewidywania opinii publicznej na podstawie artykułów prasowych, co może mieć znaczący wpływ na kampanie polityczne.

Związane z: ChatGPTLewicowy libertarianizm ma implikacje dla przyszłości młodego pokolenia

W artykule opisano metodologię, w której modele językowe są początkowo trenowane na określonych zbiorach artykuły prasowe przewidywać brakujące słowa w danym kontekście, podobnie jak modele BERT. Kolejny krok polega na przypisaniu wyniku, oznaczonego jako „s”, w celu oceny wydajności modelu. Oto przegląd procesu:

  1. W treści pracy dyplomowej formułuje się np. „Wniosek o zamknięcie większości przedsiębiorstw, z wyjątkiem sklepów spożywczych i aptek, w celu zwalczania epidemii koronaawirusa”.
  2. Warto zauważyć, że w pracy magisterskiej jest luka. Do oszacowania prawdopodobieństwa uzupełnienia tej luki konkretnymi słowami wykorzystuje się modele językowe.
  3. Oceniane jest prawdopodobieństwo wystąpienia różnych słów, takich jak „konieczne” lub „niepotrzebne”.
  4. Prawdopodobieństwo to jest normalizowane względem podstawowego modelu niedouczonego, który niezależnie mierzy częstotliwość występowania słowa w danym kontekście. Powstały ułamek reprezentuje wynik „s”, który charakteryzuje nowe informacje wprowadzone przez zbiór danych z mediów, dotyczące istniejącej wiedzy.

Model uwzględnia poziom zaangażowania określonej grupy osób w wiadomości na określony temat. Ta dodatkowa warstwa poprawia jakość predykcji mierzoną korelacją między przewidywaniami modelu a opiniami ludzi na temat oryginalnej tezy.

Sekret tkwi w tym, że tezy i newsy kategoryzowano na podstawie dat. Studiując doniesienia z pierwszych miesięcy epidemii koronaawirusa, można było przewidzieć reakcje ludzi na proponowane rozwiązania i zmiany.

Wskaźniki mogą nie wydawać się imponujące, a sami autorzy podkreślają, że ich ustalenia nie oznaczają, że sztuczna inteligencja może całkowicie zastąpić zaangażowanie człowieka w proces, lub modele mogą zastąpić badania przeprowadzane na ludziach. Zamiast tego te Narzędzia AI służą jako pomoc w podsumowywaniu ogromnych ilości danych i identyfikowaniu potencjalnie owocnych obszarów dalszych badań.

Co ciekawe, do innego wniosku doszedł senator, wyrażając zaniepokojenie zbyt dobrymi wynikami modeli i związanymi z tym potencjalnymi zagrożeniami. Ta perspektywa jest pewna, biorąc pod uwagę, że w artykule przedstawiono raczej podstawowe modele i przyszłe iteracje, np GPT-4 mogłoby potencjalnie zapewnić znaczące ulepszenia.

Związane z: OpenAI'S GPT-4 Postanawia zrewolucjonizować moderację treści

Rosnące wyzwanie związane z manipulacją sieciami społecznościowymi opartą na sztucznej inteligencji

W ostatnich dyskusjach rozmowa zeszła ze zbliżających się wyborów prezydenckich i skierowała się w stronę niepokojącego tematu wykorzystywania modeli modeli językowych (LLM), nawet na skalę lokalną, do fabrykowania i zapełniania fałszywych kont w sieciach społecznościowych. Ta dyskusja podkreśla potencjał automatyzacji fabryk trolli z naciskiem na propagandę i wpływy ideologiczne.

Chociaż może to nie wydawać się przełomowe, biorąc pod uwagę już stosowaną technologię, różnica polega na skali. LLM można wykorzystywać w sposób ciągły, ograniczony jedynie przydzielonym budżetem GPU. Ponadto, aby podtrzymywać rozmowy i wątki, dodatkowe, mniej zaawansowane boty mogą przyłączać się do dyskusji i odpowiadać. Ich skuteczność w przekonywaniu użytkowników jest wątpliwa. Czy dobrze wykonany bot rzeczywiście zmieni czyjeś stanowisko polityczne, skłaniając go do zastanowienia się: „Co zrobili ci Demokraci? Powinienem głosować na Republikanów”?

Obraz stworzony przez Stable Diffusion / Metaverse Post

Próba przypisania trolla do każdego użytkownika online w celu systematycznej perswazji jest niepraktyczna i przypomina żart „pół siedzi, pół stoi”. Z kolei bot wyposażony w zaawansowane sieci neuronowe pozostaje niestrudzony i może współpracować z dziesiątkami milionów osób jednocześnie.

Potencjalnym środkiem zaradczym jest przygotowanie Media społecznościowe konta, symulując ludzkie zachowanie. Boty mogą naśladować prawdziwych użytkowników, omawiając osobiste doświadczenia i publikując różnorodne treści, zachowując jednocześnie pozory normalności.

Choć w 2024 r. może to nie być palącą kwestią, coraz bardziej prawdopodobne jest, że do 2028 r. stanie się poważnym wyzwaniem. Rozwiązanie tego problemu wiąże się ze złożonym dylematem. Czy portale społecznościowe powinny być wyłączone w okresie wyborczym? Niewykonalne. Edukacja społeczeństwa, aby tak nie było bez wątpienia ufają treściom internetowym? Niepraktyczny. Przegrana wyborów przez manipulację? Niepożądany.

Alternatywą może być zaawansowana moderacja treści. Niedobór ludzkich moderatorów i ograniczona skuteczność istniejących modeli wykrywania tekstu, nawet tych z OpenAIpodają w wątpliwość wykonalność tego rozwiązania.

OpenAI'S GPT-4 Aktualizuje moderację treści dzięki szybkiej adaptacji reguł

OpenAIpod kierunkiem Lilian Weng wprowadziła niedawno projekt o nazwie „Korzystanie z GPT-4 za moderację treści.Przyspiesza to proces aktualizacji zasad moderacji treści, skracając czas z miesięcy do zaledwie godzin. GPT-4 wykazuje wyjątkową zdolność rozumienia zasad i subtelności kompleksowych wytycznych dotyczących treści, natychmiast dostosowując się do wszelkich zmian, zapewniając w ten sposób bardziej spójną ocenę treści.

Ten wyrafinowany system moderowania treści jest genialnie prosty, co pokazano na załączonym GIF-ie. To, co go wyróżnia, to GPT-4niezwykłą biegłość w rozumieniu tekstu pisanego, co nie jest powszechnie osiągane nawet przez ludzi.

Oto jak to działa:

  1. Po przygotowaniu wytycznych lub instrukcji dotyczących moderacji eksperci wybierają ograniczony zbiór danych zawierający przypadki naruszeń i przypisują odpowiednie etykiety zgodnie z polityką naruszeń.
  2. GPT-4 następnie rozumie zestaw reguł i etykietuje dane bez dostępu do odpowiedzi.
  3. W przypadku rozbieżności pomiędzy GPT-4 odpowiedzi i ludzkie osądy, eksperci mogą uzyskać wyjaśnienia GPT-4, przeanalizuj niejasności w instrukcji defiwątpliwości i rozwiać wszelkie nieporozumienia poprzez dodatkowe wyjaśnienia oznaczone niebieskim tekstem kroku w pliku GIF.

Ten iteracyjny proces z kroków 2 i 3 można powtarzać, aż wydajność algorytmu osiągnie pożądany standard. W przypadku zastosowań na dużą skalę, GPT-4 prognozy można wykorzystać do uczenia znacznie mniejszego modelu, który może zapewnić porównywalną jakość.

OpenAI ujawnił wskaźniki służące do oceny 12 różnych typów naruszeń. Średnio model ten przewyższa standardowych moderatorów treści, ale nadal pozostaje w tyle za wiedzą doświadczonych i dobrze wyszkolonych moderatorów. Niemniej jednak istotnym aspektem jest jego opłacalność.

Warto zauważyć, że modele uczenia maszynowego zostały wykorzystane w automatyczna moderacja od kilku lat. Wprowadzenie GPT-4 jest gotowy wprowadzić nowe innowacje, szczególnie w dziedzinie polityki i wyborów. Istnieją nawet spekulacje na ten temat OpenAI może zostać wyłącznym dostawcą oficjalnie zatwierdzonego TrueModerationAPI™ przez firmę Biały Dom, zwłaszcza w świetle ich niedawnych wysiłków w zakresie partnerstwa. Przyszłość kryje w sobie ekscytujące możliwości w tej dziedzinie.

Przeczytaj więcej o sztucznej inteligencji:

Odpowiedzialność

Zgodnie z Zaufaj wytycznym projektu, należy pamiętać, że informacje zawarte na tej stronie nie mają na celu i nie powinny być interpretowane jako porady prawne, podatkowe, inwestycyjne, finansowe lub jakiekolwiek inne formy porad. Ważne jest, aby inwestować tylko tyle, na utratę czego możesz sobie pozwolić, a w przypadku jakichkolwiek wątpliwości zasięgnąć niezależnej porady finansowej. Aby uzyskać więcej informacji, sugerujemy zapoznać się z warunkami oraz stronami pomocy i wsparcia udostępnianymi przez wydawcę lub reklamodawcę. MetaversePost zobowiązuje się do sporządzania dokładnych i bezstronnych raportów, jednakże warunki rynkowe mogą ulec zmianie bez powiadomienia.

O autorze

Damir jest liderem zespołu, menedżerem produktu i redaktorem w Metaverse Post, obejmujący takie tematy, jak AI/ML, AGI, LLM, Metaverse i Web3-pokrewne pola. Jego artykuły przyciągają każdego miesiąca ogromną publiczność, liczącą ponad milion użytkowników. Wydaje się być ekspertem z 10-letnim doświadczeniem w SEO i marketingu cyfrowym. Damir został wspomniany w Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto i inne publikacje. Jako cyfrowy koczownik podróżuje między ZEA, Turcją, Rosją i WNP. Damir uzyskał tytuł licencjata z fizyki, co jego zdaniem dało mu umiejętności krytycznego myślenia potrzebne do odniesienia sukcesu w ciągle zmieniającym się środowisku internetowym. 

Więcej artykułów
Damir Jałałow
Damir Jałałow

Damir jest liderem zespołu, menedżerem produktu i redaktorem w Metaverse Post, obejmujący takie tematy, jak AI/ML, AGI, LLM, Metaverse i Web3-pokrewne pola. Jego artykuły przyciągają każdego miesiąca ogromną publiczność, liczącą ponad milion użytkowników. Wydaje się być ekspertem z 10-letnim doświadczeniem w SEO i marketingu cyfrowym. Damir został wspomniany w Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto i inne publikacje. Jako cyfrowy koczownik podróżuje między ZEA, Turcją, Rosją i WNP. Damir uzyskał tytuł licencjata z fizyki, co jego zdaniem dało mu umiejętności krytycznego myślenia potrzebne do odniesienia sukcesu w ciągle zmieniającym się środowisku internetowym. 

Hot Stories
Dołącz do naszego newslettera.
Najnowsze wieści

Od Ripple do Big Green DAO: jak projekty kryptowalutowe przyczyniają się do działalności charytatywnej

Przyjrzyjmy się inicjatywom wykorzystującym potencjał walut cyfrowych na cele charytatywne.

Dowiedz się więcej

AlphaFold 3, Med-Gemini i inne: sposób, w jaki sztuczna inteligencja zmieni opiekę zdrowotną w 2024 r.

Sztuczna inteligencja objawia się na różne sposoby w opiece zdrowotnej, od odkrywania nowych korelacji genetycznych po wzmacnianie zrobotyzowanych systemów chirurgicznych…

Dowiedz się więcej
Dołącz do naszej innowacyjnej społeczności technologicznej
Czytaj więcej
Czytaj więcej
W jaki sposób OpenAINajnowszy model przełamuje bariery, integrując dane tekstowe, dźwiękowe i wizualne, aby zapewnić płynną obsługę użytkownika
Edukacja Styl życia Tworzenie Historie i recenzje Technologia
W jaki sposób OpenAINajnowszy model przełamuje bariery, integrując dane tekstowe, dźwiękowe i wizualne, aby zapewnić płynną obsługę użytkownika
14 maja 2024 r.
Konto Bitlayer X podejrzane o atak, użytkownikom zaleca się uważanie na linki phishingowe
Raport aktualności Technologia
Konto Bitlayer X podejrzane o atak, użytkownikom zaleca się uważanie na linki phishingowe
14 maja 2024 r.
Zaprezentowano Duriana: kompleksową analizę cyberarsenatu kryptowalut Kimsuky i jego wpływu na południowokoreańskie firmy kryptograficzne
rynki Tworzenie Historie i recenzje Technologia
Zaprezentowano Duriana: kompleksową analizę cyberarsenatu kryptowalut Kimsuky i jego wpływu na południowokoreańskie firmy kryptograficzne
14 maja 2024 r.
Vitalik Buterin publikuje propozycję EIP-7706 dotyczącą wprowadzenia nowego rodzaju gazu dla transakcji Calldata w Ethereum
Raport aktualności Technologia
Vitalik Buterin publikuje propozycję EIP-7706 dotyczącą wprowadzenia nowego rodzaju gazu dla transakcji Calldata w Ethereum
14 maja 2024 r.
CRYPTOMERIA LABS PTE. SP. Z O.O.