Sztuczna inteligencja w polityce: przewidywanie wyborów i opinii publicznej za pomocą LLM
W skrócie
W miarę zbliżania się 60. wyborów prezydenckich w USA rola Internetu i sieci społecznościowych w kształtowaniu dyskursu politycznego jest poddawana analizie, szczególnie w następstwie skandalu z Cambridge Analytica. Oczekuje się, że krajobraz cyfrowy ulegnie zmianie wraz z postępem w sztucznej inteligencji, takim jak modele językowe wyszkolone w zakresie diet medialnych i OpenAI'S GPT-4.
Inną kwestią jest możliwość manipulacji sieciami społecznościowymi w oparciu o sztuczną inteligencję, np. automatyzację fabryk trolli i moderację treści. OpenAI'S GPT-4 został wprowadzony, aby przyspieszyć proces aktualizacji zasad moderacji treści, skracając harmonogram z miesięcy do zaledwie godzin. Model ten średnio przewyższa standardowych moderatorów treści, ale nadal pozostaje w tyle za wiedzą doświadczonych moderatorów.
Wprowadzenie GPT-4 ma zamiar wprowadzić nowe innowacje, zwłaszcza w polityce i wyborach, opierając się na spekulacjach OpenAI mógłby zostać wyłącznym dostawcą.
W miarę zbliżania się 60. wyborów prezydenckich w Stanach Zjednoczonych badana jest rola Internetu i sieci społecznościowych w kształtowaniu dyskursu politycznego, zwłaszcza w następstwie Skandal z Cambridge Analytica. Rodzi się istotne pytanie: Jak będzie wyglądał cyfrowy krajobraz w czasie nadchodzących wyborów i nowych osiągnięć w AI?
Podczas ostatnich przesłuchań w Senacie Senator Josh Hawley z Missouri podniósł tę kluczową kwestię w kontekście modeli językowych. Odniósł się do artykułu pt.Modele językowe wyszkolone na dietach medialnych mogą przewidzieć opinię publiczną”, którego autorami są naukowcy z MIT i Stanford. W badaniu tym zbadano potencjał wykorzystania sieci neuronowych do przewidywania opinii publicznej na podstawie artykułów prasowych, co może mieć znaczący wpływ na kampanie polityczne.
W artykule opisano metodologię, w której modele językowe są początkowo trenowane na określonych zbiorach artykuły prasowe przewidywać brakujące słowa w danym kontekście, podobnie jak modele BERT. Kolejny krok polega na przypisaniu wyniku, oznaczonego jako „s”, w celu oceny wydajności modelu. Oto przegląd procesu:
- W treści pracy dyplomowej formułuje się np. „Wniosek o zamknięcie większości przedsiębiorstw, z wyjątkiem sklepów spożywczych i aptek, w celu zwalczania epidemii koronaawirusa”.
- Warto zauważyć, że w pracy magisterskiej jest luka. Do oszacowania prawdopodobieństwa uzupełnienia tej luki konkretnymi słowami wykorzystuje się modele językowe.
- Oceniane jest prawdopodobieństwo wystąpienia różnych słów, takich jak „konieczne” lub „niepotrzebne”.
- Prawdopodobieństwo to jest normalizowane względem podstawowego modelu niedouczonego, który niezależnie mierzy częstotliwość występowania słowa w danym kontekście. Powstały ułamek reprezentuje wynik „s”, który charakteryzuje nowe informacje wprowadzone przez zbiór danych z mediów, dotyczące istniejącej wiedzy.
Model uwzględnia poziom zaangażowania określonej grupy osób w wiadomości na określony temat. Ta dodatkowa warstwa poprawia jakość predykcji mierzoną korelacją między przewidywaniami modelu a opiniami ludzi na temat oryginalnej tezy.
Sekret tkwi w tym, że tezy i newsy kategoryzowano na podstawie dat. Studiując doniesienia z pierwszych miesięcy epidemii koronaawirusa, można było przewidzieć reakcje ludzi na proponowane rozwiązania i zmiany.
Wskaźniki mogą nie wydawać się imponujące, a sami autorzy podkreślają, że ich ustalenia nie oznaczają, że sztuczna inteligencja może całkowicie zastąpić zaangażowanie człowieka w proces, lub modele mogą zastąpić badania przeprowadzane na ludziach. Zamiast tego te Narzędzia AI służą jako pomoc w podsumowywaniu ogromnych ilości danych i identyfikowaniu potencjalnie owocnych obszarów dalszych badań.
Co ciekawe, do innego wniosku doszedł senator, wyrażając zaniepokojenie zbyt dobrymi wynikami modeli i związanymi z tym potencjalnymi zagrożeniami. Ta perspektywa jest pewna, biorąc pod uwagę, że w artykule przedstawiono raczej podstawowe modele i przyszłe iteracje, np GPT-4 mogłoby potencjalnie zapewnić znaczące ulepszenia.
Rosnące wyzwanie związane z manipulacją sieciami społecznościowymi opartą na sztucznej inteligencji
W ostatnich dyskusjach rozmowa zeszła ze zbliżających się wyborów prezydenckich i skierowała się w stronę niepokojącego tematu wykorzystywania modeli modeli językowych (LLM), nawet na skalę lokalną, do fabrykowania i zapełniania fałszywych kont w sieciach społecznościowych. Ta dyskusja podkreśla potencjał automatyzacji fabryk trolli z naciskiem na propagandę i wpływy ideologiczne.
Chociaż może to nie wydawać się przełomowe, biorąc pod uwagę już stosowaną technologię, różnica polega na skali. LLM można wykorzystywać w sposób ciągły, ograniczony jedynie przydzielonym budżetem GPU. Ponadto, aby podtrzymywać rozmowy i wątki, dodatkowe, mniej zaawansowane boty mogą przyłączać się do dyskusji i odpowiadać. Ich skuteczność w przekonywaniu użytkowników jest wątpliwa. Czy dobrze wykonany bot rzeczywiście zmieni czyjeś stanowisko polityczne, skłaniając go do zastanowienia się: „Co zrobili ci Demokraci? Powinienem głosować na Republikanów”?
Próba przypisania trolla do każdego użytkownika online w celu systematycznej perswazji jest niepraktyczna i przypomina żart „pół siedzi, pół stoi”. Z kolei bot wyposażony w zaawansowane sieci neuronowe pozostaje niestrudzony i może współpracować z dziesiątkami milionów osób jednocześnie.
Potencjalnym środkiem zaradczym jest przygotowanie Media społecznościowe konta, symulując ludzkie zachowanie. Boty mogą naśladować prawdziwych użytkowników, omawiając osobiste doświadczenia i publikując różnorodne treści, zachowując jednocześnie pozory normalności.
Choć w 2024 r. może to nie być palącą kwestią, coraz bardziej prawdopodobne jest, że do 2028 r. stanie się poważnym wyzwaniem. Rozwiązanie tego problemu wiąże się ze złożonym dylematem. Czy portale społecznościowe powinny być wyłączone w okresie wyborczym? Niewykonalne. Edukacja społeczeństwa, aby tak nie było bez wątpienia ufają treściom internetowym? Niepraktyczny. Przegrana wyborów przez manipulację? Niepożądany.
Alternatywą może być zaawansowana moderacja treści. Niedobór ludzkich moderatorów i ograniczona skuteczność istniejących modeli wykrywania tekstu, nawet tych z OpenAIpodają w wątpliwość wykonalność tego rozwiązania.
OpenAI'S GPT-4 Aktualizuje moderację treści dzięki szybkiej adaptacji reguł
OpenAIpod kierunkiem Lilian Weng wprowadziła niedawno projekt o nazwie „Korzystanie z GPT-4 za moderację treści.Przyspiesza to proces aktualizacji zasad moderacji treści, skracając czas z miesięcy do zaledwie godzin. GPT-4 wykazuje wyjątkową zdolność rozumienia zasad i subtelności kompleksowych wytycznych dotyczących treści, natychmiast dostosowując się do wszelkich zmian, zapewniając w ten sposób bardziej spójną ocenę treści.
Ten wyrafinowany system moderowania treści jest genialnie prosty, co pokazano na załączonym GIF-ie. To, co go wyróżnia, to GPT-4niezwykłą biegłość w rozumieniu tekstu pisanego, co nie jest powszechnie osiągane nawet przez ludzi.
Oto jak to działa:
- Po przygotowaniu wytycznych lub instrukcji dotyczących moderacji eksperci wybierają ograniczony zbiór danych zawierający przypadki naruszeń i przypisują odpowiednie etykiety zgodnie z polityką naruszeń.
- GPT-4 następnie rozumie zestaw reguł i etykietuje dane bez dostępu do odpowiedzi.
- W przypadku rozbieżności pomiędzy GPT-4 odpowiedzi i ludzkie osądy, eksperci mogą uzyskać wyjaśnienia GPT-4, przeanalizuj niejasności w instrukcji defiwątpliwości i rozwiać wszelkie nieporozumienia poprzez dodatkowe wyjaśnienia oznaczone niebieskim tekstem kroku w pliku GIF.
Ten iteracyjny proces z kroków 2 i 3 można powtarzać, aż wydajność algorytmu osiągnie pożądany standard. W przypadku zastosowań na dużą skalę, GPT-4 prognozy można wykorzystać do uczenia znacznie mniejszego modelu, który może zapewnić porównywalną jakość.
OpenAI ujawnił wskaźniki służące do oceny 12 różnych typów naruszeń. Średnio model ten przewyższa standardowych moderatorów treści, ale nadal pozostaje w tyle za wiedzą doświadczonych i dobrze wyszkolonych moderatorów. Niemniej jednak istotnym aspektem jest jego opłacalność.
Warto zauważyć, że modele uczenia maszynowego zostały wykorzystane w automatyczna moderacja od kilku lat. Wprowadzenie GPT-4 jest gotowy wprowadzić nowe innowacje, szczególnie w dziedzinie polityki i wyborów. Istnieją nawet spekulacje na ten temat OpenAI może zostać wyłącznym dostawcą oficjalnie zatwierdzonego TrueModerationAPI™ przez firmę Biały Dom, zwłaszcza w świetle ich niedawnych wysiłków w zakresie partnerstwa. Przyszłość kryje w sobie ekscytujące możliwości w tej dziedzinie.
Przeczytaj więcej o sztucznej inteligencji:
Odpowiedzialność
Zgodnie z Zaufaj wytycznym projektu, należy pamiętać, że informacje zawarte na tej stronie nie mają na celu i nie powinny być interpretowane jako porady prawne, podatkowe, inwestycyjne, finansowe lub jakiekolwiek inne formy porad. Ważne jest, aby inwestować tylko tyle, na utratę czego możesz sobie pozwolić, a w przypadku jakichkolwiek wątpliwości zasięgnąć niezależnej porady finansowej. Aby uzyskać więcej informacji, sugerujemy zapoznać się z warunkami oraz stronami pomocy i wsparcia udostępnianymi przez wydawcę lub reklamodawcę. MetaversePost zobowiązuje się do sporządzania dokładnych i bezstronnych raportów, jednakże warunki rynkowe mogą ulec zmianie bez powiadomienia.
O autorze
Damir jest liderem zespołu, menedżerem produktu i redaktorem w Metaverse Post, obejmujący takie tematy, jak AI/ML, AGI, LLM, Metaverse i Web3-pokrewne pola. Jego artykuły przyciągają każdego miesiąca ogromną publiczność, liczącą ponad milion użytkowników. Wydaje się być ekspertem z 10-letnim doświadczeniem w SEO i marketingu cyfrowym. Damir został wspomniany w Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto i inne publikacje. Jako cyfrowy koczownik podróżuje między ZEA, Turcją, Rosją i WNP. Damir uzyskał tytuł licencjata z fizyki, co jego zdaniem dało mu umiejętności krytycznego myślenia potrzebne do odniesienia sukcesu w ciągle zmieniającym się środowisku internetowym.
Więcej artykułówDamir jest liderem zespołu, menedżerem produktu i redaktorem w Metaverse Post, obejmujący takie tematy, jak AI/ML, AGI, LLM, Metaverse i Web3-pokrewne pola. Jego artykuły przyciągają każdego miesiąca ogromną publiczność, liczącą ponad milion użytkowników. Wydaje się być ekspertem z 10-letnim doświadczeniem w SEO i marketingu cyfrowym. Damir został wspomniany w Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto i inne publikacje. Jako cyfrowy koczownik podróżuje między ZEA, Turcją, Rosją i WNP. Damir uzyskał tytuł licencjata z fizyki, co jego zdaniem dało mu umiejętności krytycznego myślenia potrzebne do odniesienia sukcesu w ciągle zmieniającym się środowisku internetowym.