GPT-Pokrenuti neželjeni roboti izazivaju internetske platforme
Ukratko
GPTbotovi za neželjenu poštu postali su značajan problem na platformama poput Twittera i Telegrama, ciljajući na neželjene promocije.
Ovi sofisticirani programi umjetne inteligencije mogu analizirati i replicirati kontekst posta, čineći da njihovo uplitanje izgleda organskije i teže ga je identificirati.
Pojavila se nova vrsta poremećaja u obliku GPT-vođeni spam roboti. Ovi sofisticirani AI programi okrenuli su novu stranicu u knjizi spama, često ciljajući objave na platformama kao što su Twitter i Telegram s neželjenim promocijama.
To GPT-botovi za neželjenu poštu mogu analizirati i replicirati kontekst objave, zbog čega njihovo uplitanje izgleda prirodnije i teže ga je uočiti od običnog neželjenog sadržaja iz prošlosti. Tradicionalne mjere zaštite time su dovedene u pitanje jer su mnoge od njih neučinkovite. Trenutačno se ovi roboti mogu prepoznati samo po brzom vremenu odziva, što omogućuje ručnu intervenciju i uklanjanje.
Konstantna baraža neželjene pošte opterećuje kreatore i administratore. Mnogi operateri kanala na platformama poput Telegrama izrazili su želju za specijaliziranom uslugom koja može prepoznati i izbrisati te sofisticirane spam komentare kao odgovor na ovu rastuću potrebu. Ovi operateri, koji sebe zamišljaju kao "moderatore kao uslugu", spremni su uložiti u rješenje i izrazili su spremnost platiti 20-30 USD mjesečno ili koristiti model naplate na temelju upotrebe na temelju količine objava ili poruka koji se gledaju.
Međutim, poteškoće ovdje ne završavaju. Postoji nadolazeći val GPT-pošiljatelji neželjene pošte za koje se očekuje da će postati još vještiji kako tehnologija napreduje, vjerojatno koristeći strategije poput odgode odgovora ili koristeći različite AI osobnosti koje međusobno komuniciraju. Razlikovanje između ljudskih korisnika i botova u takvim okolnostima postaje izazovan zadatak.
Čak tehnološki divovi bore se s problemom. OpenAI poduzela je korak prema rješavanju ovog problema razvojem detektora teksta dizajniranog za prepoznavanje sadržaja generiranog umjetnom inteligencijom. Nažalost, njihovi napori su se suočili s neuspjehom jer je projekt odložen zbog niske točnosti detektora, kako je izvijestio TechCrunch u srpnju 2023.
Administratori platforme nisu jedini zabrinuti zbog povećanja GPT-pokrenuti spam roboti. Izazov odvajanja autentičnog sadržaja od podnesaka generiranih umjetnom inteligencijom sada se suočava čak i s upraviteljima društvenih medija i startupima. Ova okolnost naglašava hitnu potrebu i predstavlja priliku za nove inicijative i projekte koji mogu stvoriti učinkovita rješenja za suprotstavljanje naprednim metodama spama modernog doba.
Napredak u jezičnim modelima i implikacije za online dezinformacije
Praktičnost i gotovo ljudska sposobnost razgovora GPT primijetili su korisnici. Međutim, iste mogućnosti koje su mu donijele divljenje također izazivaju zabrinutost zbog njegove potencijalne zlouporabe.
S obzirom na vještinu umjetne inteligencije u oponašanju odgovora sličnih ljudskim, postoje bojazni oko njegove primjene zbog zlonamjernih namjera. Stručnjaci iz sektora akademske zajednice, kibernetičke sigurnosti i umjetne inteligencije naglašavaju potencijalnu upotrebu GPT od strane nedobronamjernih pojedinaca za širenje propagande ili poticanje nemira na digitalnim platformama.
Povijesno gledano, širenje dezinformacija zahtijevalo je značajnu ljudsku intervenciju. Uvođenje rafiniranih sustava za obradu jezika može povećati opseg i doseg operacija utjecaja ciljanje društvenih medija, što rezultira prilagođenijim, a time i potencijalno uvjerljivijim kampanjama.
Platforme društvenih medija su, u prethodnim slučajevima, svjedočile koordiniranim naporima za širenje dezinformacija. Na primjer, tijekom predizbora u SAD-u 2016., Agencija za istraživanje interneta, sa sjedištem u Sankt Peterburgu, pokrenuo opsežnu kampanju. Njihov cilj, kako je zaključio Senatski odbor za obavještajna pitanja 2019. bio je utjecati na percepciju biračkog tijela prema predsjedničkim kandidatima.
U siječanjskom izvješću istaknuto je da je pojava AI-a vođena jezični modeli mogli povećati širenje obmanjujućeg sadržaja. Sadržaj ne samo da bi se mogao povećati u obujmu, već bi se poboljšao i u uvjerljivoj kvaliteti, što prosječnim korisnicima interneta predstavlja izazov da razaznaju njegovu autentičnost.
Josh Goldstein, povezan s Georgetownovim centrom za sigurnost i nove tehnologije i suradnik u studiji, spomenuo je sposobnost generativnih modela da proizvedu velike količine jedinstvenog sadržaja. Takva sposobnost mogla bi omogućiti pojedincima sa zlonamjernim namjerama da cirkuliraju različite priče bez pribjegavanja sadržaju koji se ponavlja.
Unatoč naporima platformi poput Telegrama, Twitter i Facebook za suzbijanje lažnih računa, evolucija jezičnih modela prijeti zasićenjem ovih platformi s više varljivih profila. Vincent Conitzer, profesor informatike na Sveučilištu Carnegie Mellon, primijetio je da napredne tehnologije, poput ChatGPT, mogao značajno potaknuti širenje krivotvorenih profila, dodatno brišući granice između pravih korisnika i automatiziranih računa.
Nedavne studije, uključujući rad gospodina Goldsteina i izvješće sigurnosne tvrtke WithSecure Intelligence, istaknule su stručnost generativni jezični modeli u izradi obmanjujućih novinskih članaka. Ove lažne priče, kada kruže dalje socijalne platforme, mogli utjecati na javno mnijenje, osobito u ključnim izbornim razdobljima.
Porast dezinformacija omogućen naprednim AI sustavima poput Chat-aGPT postavlja pitanje: trebaju li online platforme poduzeti proaktivnije mjere? Dok neki tvrde da bi platforme trebale rigorozno označavati sumnjiv sadržaj, izazovi i dalje postoje. Luís A Nunes Amaral, pridružen Northwestern Institute on Complex Systems, komentirao je probleme platformi, navodeći i troškove praćenja svake objave i nenamjerno povećanje angažmana koje takve objave koje izazivaju podjele donose.
Pročitajte više o AI:
Izjava o odricanju od odgovornosti
U skladu s Smjernice projekta povjerenja, imajte na umu da informacije navedene na ovoj stranici nemaju namjeru i ne smiju se tumačiti kao pravni, porezni, investicijski, financijski ili bilo koji drugi oblik savjeta. Važno je ulagati samo ono što si možete priuštiti izgubiti i potražiti neovisni financijski savjet ako imate bilo kakvih nedoumica. Za dodatne informacije predlažemo da pogledate odredbe i uvjete, kao i stranice za pomoć i podršku koje pruža izdavatelj ili oglašivač. MetaversePost je predan točnom, nepristranom izvješćivanju, ali tržišni uvjeti podložni su promjenama bez prethodne najave.
O autoru
Damir je voditelj tima, product manager i urednik u Metaverse Post, koji pokriva teme kao što su AI/ML, AGI, LLMs, Metaverse i Web3- srodna polja. Njegovi članci privlače ogromnu publiku od preko milijun korisnika svakog mjeseca. Čini se da je stručnjak s 10 godina iskustva u SEO-u i digitalnom marketingu. Damir je spomenut u Mashableu, Wiredu, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto i druge publikacije. Putuje između UAE, Turske, Rusije i CIS-a kao digitalni nomad. Damir je stekao diplomu prvostupnika fizike, za koju vjeruje da mu je dala vještine kritičkog razmišljanja potrebne za uspjeh u stalno promjenjivom okruženju interneta.
Više članakaDamir je voditelj tima, product manager i urednik u Metaverse Post, koji pokriva teme kao što su AI/ML, AGI, LLMs, Metaverse i Web3- srodna polja. Njegovi članci privlače ogromnu publiku od preko milijun korisnika svakog mjeseca. Čini se da je stručnjak s 10 godina iskustva u SEO-u i digitalnom marketingu. Damir je spomenut u Mashableu, Wiredu, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto i druge publikacije. Putuje između UAE, Turske, Rusije i CIS-a kao digitalni nomad. Damir je stekao diplomu prvostupnika fizike, za koju vjeruje da mu je dala vještine kritičkog razmišljanja potrebne za uspjeh u stalno promjenjivom okruženju interneta.