Opinia Technologia
11 sierpnia 2023 r.

GPT-Napędzane boty spamujące rzucają wyzwanie platformom internetowym

W skrócie

GPToparte na botach spamujących stały się poważnym problemem na platformach takich jak Twitter i Telegram, których celem są niechciane promocje.

Te wyrafinowane programy AI mogą analizować i replikować kontekst postu, sprawiając, że ich ingerencja wydaje się bardziej organiczna i trudniejsza do zidentyfikowania.

Pojawił się nowy rodzaj zaburzeń w postaci GPT- napędzane boty spamujące. Te wyrafinowane programy sztucznej inteligencji otworzyły nową stronę w podręczniku spamu, często obierając za cel niechciane promocje posty na platformach takich jak Twitter i Telegram.

GPT-Napędzane boty spamujące rzucają wyzwanie platformom internetowym

Te GPT-boty spamujące mogą analizować i odtwarzać kontekst postu, dzięki czemu ich ingerencja wydaje się bardziej naturalna i trudniejsza do wykrycia niż zwykły spam z przeszłości. Podważa to tradycyjne środki ochronne, ponieważ wiele z nich jest nieskutecznych. Obecnie boty te można zidentyfikować jedynie na podstawie ich krótkiego czasu reakcji, co umożliwia ręczną interwencję i usunięcie.

Nieustanna fala spamu męczy twórców i administratorów. Wielu operatorów kanałów na platformach takich jak Telegram wyraziło zapotrzebowanie na wyspecjalizowaną usługę, która może rozpoznawać i usuwać te wyrafinowane komentarze spamowe w odpowiedzi na tę rosnącą potrzebę. Operatorzy ci, którzy wyobrażają sobie, że są „moderatorami jako usługą”, są gotowi zainwestować w rozwiązanie i wyrazili chęć płacenia 20–30 USD miesięcznie lub korzystania z modelu rozliczania opartego na wykorzystaniu w oparciu o liczbę postów lub wiadomości które są obserwowane.

Na tym jednak nie kończą się trudności. Nadchodzi fala GPT-spamerzy, co do których oczekuje się, że w miarę postępu technologii staną się jeszcze bardziej wykwalifikowani, prawdopodobnie stosując strategie takie jak opóźnienia odpowiedzi lub wykorzystując różne osobowości AI, które wchodzą ze sobą w interakcję. W takich okolicznościach rozróżnienie między ludźmi a botami staje się trudnym zadaniem.

Parzyste technologiczni giganci borykają się z problemem. OpenAI zrobiła krok w kierunku rozwiązania tego problemu, opracowując wykrywacz tekstu przeznaczony do identyfikowania treści generowanych przez sztuczną inteligencję. Niestety, ich wysiłki spotkały się z niepowodzeniem, ponieważ projekt został odłożony na półkę z powodu niskiej dokładności detektora, jak donosi TechCrunch w lipcu 2023 r.

Administratorzy platform nie są jedynymi, którzy są zaniepokojeni wzrostem GPT- zasilane boty spamujące. Wyzwanie polegające na oddzieleniu autentycznych treści od zgłoszeń generowanych przez sztuczną inteligencję stoi obecnie przed nawet menedżerami mediów społecznościowych i start-upami. Okoliczność ta podkreśla pilną potrzebę i stwarza szansę na nowe inicjatywy i projekty, które mogą stworzyć skuteczne rozwiązania w walce z zaawansowanymi metodami spamowania współczesności.

Postępy w modelach językowych i implikacjach dezinformacji online

Praktyczność i niemal ludzka umiejętność konwersacji GPT zostały zauważone przez użytkowników. Jednak te same możliwości, które wzbudziły podziw, budzą również obawy dotyczące potencjalnego niewłaściwego wykorzystania.

Biorąc pod uwagę biegłość sztucznej inteligencji w naśladowaniu reakcji ludzkich, istnieją obawy co do jej wykorzystania w złych zamiarach. Eksperci ze środowiska akademickiego, cyberbezpieczeństwa i sztucznej inteligencji podkreślają potencjalne wykorzystanie GPT przez osoby mające złe intencje w celu rozpowszechniania propagandy lub wzniecania niepokojów na platformach cyfrowych.

Historycznie rzecz biorąc, rozpowszechnianie dezinformacji wymagało znacznej interwencji człowieka. Wprowadzenie udoskonalonych systemów przetwarzania języka może zwiększyć skalę i zasięg operacji wywierania wpływu celowanie w media społecznościowe, co skutkuje bardziej dopasowanymi, a zatem potencjalnie bardziej przekonującymi kampaniami.

W poprzednich przypadkach platformy mediów społecznościowych były świadkami skoordynowanych wysiłków na rzecz rozpowszechniania dezinformacji. Na przykład w okresie poprzedzającym wybory w USA w 2016 r. Internet Research Agency z siedzibą w Sankt Petersburgu rozpoczęło szeroko zakrojoną kampanię. Ich celem, wydedukowanym przez Senacką Komisję ds. Wywiadu w 2019 r., miało wpłynąć na postrzeganie przez elektorat kandydatów na prezydenta.

W styczniowym raporcie podkreślono, że pojawienie się technologii opartych na sztucznej inteligencji modele językowe mogłyby nasilić rozpowszechnianie treści wprowadzających w błąd. Treść mogłaby nie tylko zwiększyć objętość, ale także poprawić jej jakość przekonującą, co sprawi, że dla przeciętnego internauty będzie wyzwaniem rozpoznanie jej autentyczności.

Josha Goldsteina, powiązany z Georgetown's Center for Security and Emerging Technology i współautor badania, wspomniał o zdolności modeli generatywnych do wytwarzania dużych ilości unikalnych treści. Taka zdolność mogłaby umożliwić osobom o złych intencjach rozpowszechnianie różnych narracji bez uciekania się do powtarzających się treści.

Pomimo wysiłków platform takich jak Telegram, Twitter i Facebook w celu zwalczania fałszywych kont, ewolucja modeli językowych grozi nasyceniem tych platform bardziej zwodniczymi profilami. Vincent Conitzer, profesor informatyki na Carnegie Mellon University, zauważył, że zaawansowane technologie, takie jak ChatGPT, mogłoby znacznie zwiększyć rozprzestrzenianie się fałszywych profili, jeszcze bardziej zacierając granicę między prawdziwymi użytkownikami a kontami automatycznymi.

Ostatnie badania, w tym artykuł pana Goldsteina i raport firmy ochroniarskiej WithSecure Intelligence, podkreśliły biegłość generatywne modele językowe w tworzeniu oszukańczych artykułów prasowych. Te fałszywe narracje, gdy są rozpowszechniane platformy społecznościowe, mogą wpływać na opinię publiczną, zwłaszcza w kluczowych okresach wyborczych.

Wzrost dezinformacji dzięki zaawansowanym systemom sztucznej inteligencji, takim jak Chat-GPT nasuwa się pytanie: czy platformy internetowe powinny podjąć bardziej proaktywne działania? Choć niektórzy twierdzą, że platformy powinny rygorystycznie zgłaszać podejrzane treści, wyzwania nadal istnieją. Luís A Nunes Amaral, powiązany z Northwestern Institute on Complex Systems, skomentował problemy platform, powołując się zarówno na koszty monitorowania każdego postu, jak i na niezamierzony wzrost zaangażowania, jaki niosą ze sobą posty powodujące podziały.

Przeczytaj więcej o sztucznej inteligencji:

Odpowiedzialność

Zgodnie z Zaufaj wytycznym projektu, należy pamiętać, że informacje zawarte na tej stronie nie mają na celu i nie powinny być interpretowane jako porady prawne, podatkowe, inwestycyjne, finansowe lub jakiekolwiek inne formy porad. Ważne jest, aby inwestować tylko tyle, na utratę czego możesz sobie pozwolić, a w przypadku jakichkolwiek wątpliwości zasięgnąć niezależnej porady finansowej. Aby uzyskać więcej informacji, sugerujemy zapoznać się z warunkami oraz stronami pomocy i wsparcia udostępnianymi przez wydawcę lub reklamodawcę. MetaversePost zobowiązuje się do sporządzania dokładnych i bezstronnych raportów, jednakże warunki rynkowe mogą ulec zmianie bez powiadomienia.

O autorze

Damir jest liderem zespołu, menedżerem produktu i redaktorem w Metaverse Post, obejmujący takie tematy, jak AI/ML, AGI, LLM, Metaverse i Web3-pokrewne pola. Jego artykuły przyciągają każdego miesiąca ogromną publiczność, liczącą ponad milion użytkowników. Wydaje się być ekspertem z 10-letnim doświadczeniem w SEO i marketingu cyfrowym. Damir został wspomniany w Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto i inne publikacje. Jako cyfrowy koczownik podróżuje między ZEA, Turcją, Rosją i WNP. Damir uzyskał tytuł licencjata z fizyki, co jego zdaniem dało mu umiejętności krytycznego myślenia potrzebne do odniesienia sukcesu w ciągle zmieniającym się środowisku internetowym. 

Więcej artykułów
Damir Jałałow
Damir Jałałow

Damir jest liderem zespołu, menedżerem produktu i redaktorem w Metaverse Post, obejmujący takie tematy, jak AI/ML, AGI, LLM, Metaverse i Web3-pokrewne pola. Jego artykuły przyciągają każdego miesiąca ogromną publiczność, liczącą ponad milion użytkowników. Wydaje się być ekspertem z 10-letnim doświadczeniem w SEO i marketingu cyfrowym. Damir został wspomniany w Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto i inne publikacje. Jako cyfrowy koczownik podróżuje między ZEA, Turcją, Rosją i WNP. Damir uzyskał tytuł licencjata z fizyki, co jego zdaniem dało mu umiejętności krytycznego myślenia potrzebne do odniesienia sukcesu w ciągle zmieniającym się środowisku internetowym. 

Apetyt instytucjonalny na ETFy Bitcoin rośnie w obliczu zmienności

Ujawnienia zawarte w zgłoszeniach 13F ujawniają, że znaczący inwestorzy instytucjonalni parają się funduszami ETF Bitcoin, co podkreśla rosnącą akceptację…

Dowiedz się więcej

Nadchodzi dzień wyroku: los CZ wisi na włosku, gdy amerykański sąd rozpatruje skargę Departamentu Sprawiedliwości

Changpeng Zhao stanie dziś przed amerykańskim sądem w Seattle wyrokiem skazującym.

Dowiedz się więcej
Dołącz do naszej innowacyjnej społeczności technologicznej
Czytaj więcej
Czytaj więcej
Espresso Systems współpracuje z Polygon Labs w celu opracowania oprogramowania AggLayer w celu zwiększenia interoperacyjności pakietów zbiorczych
Biznes Raport aktualności Technologia
Espresso Systems współpracuje z Polygon Labs w celu opracowania oprogramowania AggLayer w celu zwiększenia interoperacyjności pakietów zbiorczych
9 maja 2024 r.
Protokół infrastrukturalny oparty na ZKP ZKBase przedstawia plan działania, planuje uruchomienie sieci Testnet w maju
Raport aktualności Technologia
Protokół infrastrukturalny oparty na ZKP ZKBase przedstawia plan działania, planuje uruchomienie sieci Testnet w maju
9 maja 2024 r.
BLOCKCHANCE i CONF3RENCE łączą siły na rzecz największego w Niemczech Web3 Konferencja w Dortmundzie
Biznes rynki Tworzenie Historie i recenzje Technologia
BLOCKCHANCE i CONF3RENCE łączą siły na rzecz największego w Niemczech Web3 Konferencja w Dortmundzie
9 maja 2024 r.
NuLink uruchamia się na Bybit Web3 Platforma IDO. Faza subskrypcji trwa do 13 maja
rynki Raport aktualności Technologia
NuLink uruchamia się na Bybit Web3 Platforma IDO. Faza subskrypcji trwa do 13 maja
9 maja 2024 r.
CRYPTOMERIA LABS PTE. SP. Z O.O.