GPT- „Spam Bots Challenge“ internetinėms platformoms
Trumpai
GPT- Šlamšto robotai tapo svarbia problema tokiose platformose kaip „Twitter“ ir „Telegram“, nukreipiančios į nepageidaujamas reklamas.
Šios sudėtingos AI programos gali analizuoti ir atkartoti įrašo kontekstą, todėl jų trukdžiai atrodo organiškesni ir sunkiau atpažįstami.
Atsirado naujo tipo trikdžių forma GPT- valdomi šlamšto robotai. Šios sudėtingos dirbtinio intelekto programos atvertė naują šlamšto knygelės puslapį, dažnai nukreipdamos į įrašus tokiose platformose kaip Twitter ir Telegram su nepageidaujamomis reklamomis.
Tai GPT- Šlamšto robotai gali analizuoti ir atkartoti įrašo kontekstą, todėl jų trukdžiai atrodo natūralesni ir sunkiau pastebimi nei paprastas praeities šlamštas. Tai kelia iššūkį tradicinėms apsaugos priemonėms, nes daugelis jų yra neveiksmingos. Šiuo metu šiuos robotus galima atpažinti tik pagal greitą reagavimo laiką, o tai leidžia rankiniu būdu įsikišti ir pašalinti.
Nuolatinis šlamšto srautas slegia kūrėjus ir administratorius. Daugelis kanalų operatorių tokiose platformose kaip „Telegram“ pareiškė norintys specializuotos paslaugos, kuri galėtų atpažinti ir ištrinti šiuos sudėtingus nepageidaujamo pašto komentarus, reaguodama į šį augantį poreikį. Šie operatoriai, kurie įsivaizduoja save kaip „moderatorius kaip paslaugą“, yra pasirengę investuoti į sprendimą ir yra išreiškę norą mokėti 20–30 USD per mėnesį arba naudoti atsiskaitymo pagal naudojimą modelį, pagrįstą pranešimų ar pranešimų kiekiu. kurie yra stebimi.
Tačiau sunkumai čia nesibaigia. Artėja banga GPTpašto siuntėjai, kurie, kaip tikimasi, taps dar labiau įgudę tobulėjant technologijoms, galbūt taikydami tokias strategijas kaip atsako delsimas arba naudodami įvairias dirbtinio intelekto asmenybes, kurios sąveikauja tarpusavyje. Tokiomis aplinkybėmis atskirti žmonių vartotojus ir robotus tampa sudėtinga užduotimi.
Net technikos milžinai kovoja su šia problema. OpenAI žengė žingsnį šios problemos sprendimo link – sukūrė teksto detektorių, skirtą AI sukurtam turiniui identifikuoti. Deja, jų pastangos patyrė nesėkmę, nes projektas buvo atidėtas dėl mažo detektoriaus tikslumo, kaip pranešė „TechCrunch“ 2023 m. liepos mėn.
Platformų administratoriai nėra vieninteliai, susirūpinę dėl padidėjusio GPT- maitinami šlamšto robotai. Iššūkis atskirti autentišką turinį nuo AI sukurto pateikimo dabar susiduria net ir socialinės žiniasklaidos valdytojams ir pradedantiesiems. Ši aplinkybė išryškina neatidėliotiną poreikį ir suteikia galimybę naujoms iniciatyvoms ir projektams, kurie gali sukurti veiksmingus sprendimus, kaip kovoti su pažangiais šiuolaikinės eros elektroninio pašto siuntimo metodais.
Kalbos modelių pažanga ir dezinformacijos internete pasekmės
Praktiškumas ir beveik žmogiškas pokalbio gebėjimas GPT pastebėjo vartotojai. Tačiau tos pačios galimybės, kurios sulaukė jos susižavėjimo, taip pat kelia susirūpinimą dėl galimo netinkamo naudojimo.
Atsižvelgiant į tai, kad dirbtinis intelektas geba imituoti į žmones panašius atsakymus, kyla nuogąstavimų dėl jo panaudojimo piktavališkais tikslais. Akademinės bendruomenės, kibernetinio saugumo ir dirbtinio intelekto sektorių ekspertai pabrėžia galimą naudojimą GPT piktų ketinimų asmenys skleisti propagandą arba skatinti neramumus skaitmeninėse platformose.
Istoriškai dezinformacijos skleidimas reikalavo didelio žmogaus įsikišimo. Patobulintų kalbos apdorojimo sistemų įdiegimas gali padidinti įtakos operacijų mastą ir pasiekiamumą nukreipta į socialinę žiniasklaidą, todėl kampanijos bus labiau pritaikytos, taigi ir galbūt labiau įtikinamos.
Ankstesniais atvejais socialinės žiniasklaidos platformos matė koordinuotas pastangas skleisti dezinformaciją. Pavyzdžiui, prieš 2016 m. JAV rinkimus Interneto tyrimų agentūra, įsikūrusi Sankt Peterburge, pradėjo plataus masto kampaniją. Jų tikslas, kaip nustatė Senato žvalgybos komitetas 2019 m. turėjo paveikti rinkėjų požiūrį į kandidatus į prezidentus.
Sausio mėn. ataskaitoje pabrėžta, kad dirbtinio intelekto atsiradimas kalbos modeliai galėtų padidinti klaidinančio turinio sklaidą. Turinys gali ne tik padidinti apimtį, bet ir pagerinti įtikinamą kokybę, todėl vidutiniams interneto vartotojams būtų sunku įžvelgti jo autentiškumą.
Joshas Goldsteinas, susijusi su Džordžtauno saugumo ir naujų technologijų centru ir tyrimo dalyviu, paminėjo generatyvinių modelių gebėjimą išgauti didelius unikalaus turinio kiekius. Tokia galimybė gali leisti asmenims, turintiems piktų kėslų, platinti įvairius pasakojimus, nesinaudojant pasikartojančiu turiniu.
Nepaisant tokių platformų kaip „Telegram“ pastangų, „Twitter“ ir „Facebook“, kad kovotų su netikromis paskyromis, kalbos modelių evoliucija grasina prisotinti šias platformas apgaulingesniais profiliais. Carnegie Mellon universiteto kompiuterių mokslų profesorius Vincentas Conitzeris pažymėjo, kad pažangios technologijos, pvz. ChatGPT, gali žymiai paskatinti padirbtų profilių plitimą, dar labiau susilpnindama ribas tarp tikrų naudotojų ir automatizuotų paskyrų.
Naujausi tyrimai, įskaitant pono Goldsteino dokumentą ir saugos įmonės WithSecure Intelligence ataskaitą, parodė, kad generatyviniai kalbos modeliai kurdami apgaulingus naujienų straipsnius. Šie klaidingi pasakojimai, kai jie platinami socialinės platformos, gali turėti įtakos visuomenės nuomonei, ypač svarbiais rinkimų laikotarpiais.
Dezinformacijos atsiradimas, kurį palengvino pažangios AI sistemos, tokios kaip „Chat“GPT iškyla klausimas: ar internetinės platformos turėtų imtis aktyvesnių priemonių? Nors kai kurie teigia, kad platformos turėtų griežtai pažymėti abejotiną turinį, iššūkių išlieka. Luís A Nunes Amaral, susijęs su Šiaurės vakarų kompleksinių sistemų institutu, pakomentavo platformų kovas, nurodydamas tiek kiekvieno įrašo stebėjimo išlaidas, tiek netyčinį įsitraukimą, skatinantį tokius nesutarimus.
Skaitykite daugiau apie AI:
Atsakomybės neigimas
Remdamasi tuo, Pasitikėjimo projekto gairės, atkreipkite dėmesį, kad šiame puslapyje pateikta informacija nėra skirta ir neturėtų būti aiškinama kaip teisinė, mokesčių, investicinė, finansinė ar bet kokia kita konsultacija. Svarbu investuoti tik tai, ką galite sau leisti prarasti, ir, jei turite kokių nors abejonių, kreiptis į nepriklausomą finansinę konsultaciją. Norėdami gauti daugiau informacijos, siūlome peržiūrėti taisykles ir nuostatas bei pagalbos ir palaikymo puslapius, kuriuos pateikia išdavėjas arba reklamuotojas. MetaversePost yra įsipareigojusi teikti tikslias, nešališkas ataskaitas, tačiau rinkos sąlygos gali keistis be įspėjimo.
Apie autorių
Damiras yra komandos vadovas, produktų vadovas ir redaktorius Metaverse Post, apimantis tokias temas kaip AI/ML, AGI, LLM, Metaverse ir Web3– susijusiose srityse. Jo straipsniai kas mėnesį pritraukia didžiulę daugiau nei milijono vartotojų auditoriją. Atrodo, kad jis yra ekspertas, turintis 10 metų SEO ir skaitmeninės rinkodaros patirtį. Damiras buvo paminėtas Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto ir kiti leidiniai. Jis keliauja tarp JAE, Turkijos, Rusijos ir NVS kaip skaitmeninis klajoklis. Damiras įgijo fizikos bakalauro laipsnį, kuris, jo manymu, suteikė jam kritinio mąstymo įgūdžių, reikalingų sėkmingam nuolat besikeičiančiame interneto peizaže.
Daugiau straipsniųDamiras yra komandos vadovas, produktų vadovas ir redaktorius Metaverse Post, apimantis tokias temas kaip AI/ML, AGI, LLM, Metaverse ir Web3– susijusiose srityse. Jo straipsniai kas mėnesį pritraukia didžiulę daugiau nei milijono vartotojų auditoriją. Atrodo, kad jis yra ekspertas, turintis 10 metų SEO ir skaitmeninės rinkodaros patirtį. Damiras buvo paminėtas Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto ir kiti leidiniai. Jis keliauja tarp JAE, Turkijos, Rusijos ir NVS kaip skaitmeninis klajoklis. Damiras įgijo fizikos bakalauro laipsnį, kuris, jo manymu, suteikė jam kritinio mąstymo įgūdžių, reikalingų sėkmingam nuolat besikeičiančiame interneto peizaže.