GPT- Vyzývanie robotov nevyžiadanej pošty na online platformy
Stručne
GPTspamové roboty poháňané spamom sa stali významným problémom na platformách ako Twitter a Telegram, ktoré sa zameriavajú na nevyžiadané propagácie.
Tieto sofistikované programy AI dokážu analyzovať a replikovať kontext príspevku, vďaka čomu sa ich rušenie javí organickejšie a ťažšie identifikovateľné.
Objavil sa nový typ narušenia vo forme GPT- poháňané spamovými robotmi. Tieto sofistikované programy AI zmenili novú stránku v zozname spamov a často sa zameriavajú na príspevky na platformách ako Twitter a Telegram s nevyžiadanými propagačnými akciami.
Tieto GPT- spamové roboty dokážu analyzovať a replikovať kontext príspevku, vďaka čomu sa ich zásahy javia prirodzenejšie a ťažšie rozpoznateľné ako obyčajný spam v minulosti. Tradičné ochranné opatrenia sú týmto spochybňované, pretože mnohé z nich sú neúčinné. V súčasnosti možno tieto roboty identifikovať iba podľa ich rýchlej odozvy, čo umožňuje manuálny zásah a odstránenie.
Neustály príval spamu zaťažuje tvorcov a správcov. Mnoho operátorov kanálov na platformách, ako je Telegram, vyjadrilo svoju túžbu po špecializovanej službe, ktorá dokáže rozpoznať a odstrániť tieto sofistikované spamové komentáre v reakcii na túto rastúcu potrebu. Títo operátori, ktorí sa považujú za „moderátorov ako službu“, sú pripravení investovať do riešenia a vyjadrili ochotu platiť 20 – 30 USD mesačne alebo použiť fakturačný model založený na použití na základe množstva príspevkov alebo správ. ktoré sú sledované.
Tu sa však ťažkosti nekončia. Blíži sa vlna GPT- spameri, u ktorých sa očakáva, že budú s pokrokom technológie ešte kvalifikovanejšími, prípadne môžu používať stratégie, ako je oneskorenie odozvy alebo používanie rôznych osobností AI, ktoré sa navzájom ovplyvňujú. Rozlišovanie medzi ľudskými používateľmi a robotmi za takýchto okolností sa stáva náročnou úlohou.
Dokonca tech giganti boria sa s problematikou. OpenAI podnikol krok smerom k vyriešeniu tohto problému vývojom textového detektora určeného na identifikáciu obsahu generovaného AI. Bohužiaľ, ich úsilie čelilo neúspechu, pretože projekt bol odložený z dôvodu nízkej presnosti detektora, ako uvádza TechCrunch v júli 2023.
Správcovia platforiem nie sú jediní, ktorých sa nárast týka GPT- poháňané spamové roboty. Výzva oddeliť autentický obsah od príspevkov generovaných AI teraz čelia dokonca aj manažérom sociálnych médií a začínajúcim firmám. Táto okolnosť poukazuje na naliehavú potrebu a predstavuje šancu pre nové iniciatívy a projekty, ktoré môžu vytvoriť efektívne riešenia na boj proti pokročilým metódam spamovania modernej doby.
Pokroky v jazykových modeloch a dôsledky pre online dezinformácie
Praktickosť a takmer ľudská konverzačná schopnosť GPT boli zaznamenané používateľmi. Tie isté schopnosti, ktoré si získali obdiv, však vyvolávajú aj obavy z jeho potenciálneho zneužitia.
Vzhľadom na odbornosť AI v napodobňovaní ľudských reakcií existujú obavy týkajúce sa jej nasadenia so zlými úmyslami. Odborníci naprieč akademickou sférou, kybernetickou bezpečnosťou a sektormi AI zdôrazňujú potenciálne využitie GPT jednotlivci so zlým úmyslom šíriť propagandu alebo podporovať nepokoje na digitálnych platformách.
Historicky si šírenie dezinformácií vyžadovalo významný ľudský zásah. Zavedenie vylepšených systémov na spracovanie jazyka môže zväčšiť rozsah a dosah operácií vplyvu zacielenie na sociálne médiá, výsledkom čoho sú lepšie prispôsobené, a teda potenciálne presvedčivejšie kampane.
Platformy sociálnych médií boli v predchádzajúcich prípadoch svedkami koordinovaného úsilia o šírenie dezinformácií. Napríklad počas príprav na voľby v USA v roku 2016 Internet Research Agency so sídlom v Petrohrade, spustili rozsiahlu kampaň. Ich cieľom, ako vyvodil Senátny výbor pre spravodajstvo v roku 2019, malo ovplyvniť vnímanie voličov voči prezidentským kandidátom.
Januárová správa zdôraznila, že vznik AI riadený jazykové modely by mohli rozšíriť šírenie zavádzajúceho obsahu. Obsah by mohol nielen zväčšiť objem, ale aj zlepšiť presvedčivú kvalitu, takže pre priemerných používateľov internetu je výzvou rozoznať jeho autentickosť.
Josh Goldstein, pridružený k Georgetown's Center for Security and Emerging Technology a prispievateľ do štúdie, spomenul schopnosť generatívnych modelov chrliť veľké objemy jedinečného obsahu. Takáto schopnosť by mohla umožniť jednotlivcom so zlým úmyslom šíriť rôzne príbehy bez toho, aby sa uchyľovali k opakovanému obsahu.
Napriek úsiliu platforiem ako Telegram, Twitter a Facebook bojujú proti falošným účtom, hrozí, že vývoj jazykových modelov nasýti tieto platformy klamnejšími profilmi. Vincent Conitzer, profesor informatiky na Carnegie Mellon University, poznamenal, že pokročilé technológie, ako napr ChatGPT, by mohla výrazne podporiť šírenie falšovaných profilov, čím sa ďalej stierajú hranice medzi skutočnými používateľmi a automatizovanými účtami.
Nedávne štúdie, vrátane článku pána Goldsteina a správy bezpečnostnej firmy WithSecure Intelligence, zdôraznili odbornosť generatívne jazykové modely pri vytváraní klamlivých spravodajských článkov. Tieto falošné príbehy, keď sa šíria ďalej sociálne platformy, by mohli ovplyvniť verejnú mienku, najmä počas rozhodujúcich volebných období.
Nárast dezinformácií uľahčený pokročilými systémami AI, ako je Chat-GPT vyvoláva otázku: Mali by online platformy prijať proaktívnejšie opatrenia? Zatiaľ čo niektorí tvrdia, že platformy by mali dôsledne označovať pochybný obsah, výzvy pretrvávajú. Luís A Nunes Amaral, spojený s Northwestern Institute on Complex Systems, sa vyjadril k bojom platforiem, pričom uviedol náklady na monitorovanie každého príspevku a neúmyselné zvýšenie angažovanosti, ktoré takéto rozdeľujúce príspevky prinášajú.
Prečítajte si viac o AI:
Vylúčenie zodpovednosti
V súlade s Pokyny k projektu Trust, uvedomte si, že informácie uvedené na tejto stránke nie sú zamýšľané a nemali by byť interpretované ako právne, daňové, investičné, finančné alebo iné formy poradenstva. Je dôležité investovať len toľko, koľko si môžete dovoliť stratiť a v prípade akýchkoľvek pochybností vyhľadať nezávislé finančné poradenstvo. Ak chcete získať ďalšie informácie, odporúčame vám pozrieť si zmluvné podmienky, ako aj stránky pomoci a podpory poskytnuté vydavateľom alebo inzerentom. MetaversePost sa zaviazala poskytovať presné a nezaujaté správy, ale podmienky na trhu sa môžu zmeniť bez upozornenia.
O autorovi
Damir je vedúci tímu, produktový manažér a redaktor v Metaverse Post, pokrývajúce témy ako AI/ML, AGI, LLM, Metaverse a Web3- súvisiace oblasti. Jeho články priťahujú každý mesiac obrovské publikum s viac ako miliónom používateľov. Zdá sa, že je odborníkom s 10-ročnými skúsenosťami v oblasti SEO a digitálneho marketingu. Damir bol spomenutý v Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto a ďalšie publikácie. Ako digitálny nomád cestuje medzi SAE, Tureckom, Ruskom a SNŠ. Damir získal bakalársky titul z fyziky, o ktorom sa domnieva, že mu dal schopnosti kritického myslenia potrebné na to, aby bol úspešný v neustále sa meniacom prostredí internetu.
Ďalšie článkyDamir je vedúci tímu, produktový manažér a redaktor v Metaverse Post, pokrývajúce témy ako AI/ML, AGI, LLM, Metaverse a Web3- súvisiace oblasti. Jeho články priťahujú každý mesiac obrovské publikum s viac ako miliónom používateľov. Zdá sa, že je odborníkom s 10-ročnými skúsenosťami v oblasti SEO a digitálneho marketingu. Damir bol spomenutý v Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto a ďalšie publikácie. Ako digitálny nomád cestuje medzi SAE, Tureckom, Ruskom a SNŠ. Damir získal bakalársky titul z fyziky, o ktorom sa domnieva, že mu dal schopnosti kritického myslenia potrebné na to, aby bol úspešný v neustále sa meniacom prostredí internetu.