GPT- Surogātpasta robotu izaicinājums tiešsaistes platformām
Īsumā
GPT- Surogātpasta roboti ir kļuvuši par būtisku problēmu tādās platformās kā Twitter un Telegram, mērķējot uz nevēlamām reklāmām.
Šīs sarežģītās AI programmas var analizēt un atkārtot ziņas kontekstu, padarot to traucējumus organiskākus un grūtāk identificējamus.
Ir parādījies jauns traucējumu veids GPT- vadīti surogātpasta roboti. Šīs izsmalcinātās AI programmas ir pārvērušas jaunu lappusi surogātpasta rokasgrāmatā, bieži vien mērķējot uz ziņām tādās platformās kā Twitter un Telegram ar nevēlamām reklāmām.
šis GPT-Surogātpasta roboti var analizēt un atkārtot ziņas kontekstu, tāpēc to iejaukšanās šķiet dabiskāka un grūtāk pamanāma nekā vienkāršais pagātnes surogātpasts. Tas apdraud tradicionālos aizsardzības pasākumus, jo daudzi no tiem ir neefektīvi. Pašlaik šīs robotprogrammatūras var identificēt tikai pēc to ātrā reakcijas laika, kas nodrošina manuālu iejaukšanos un noņemšanu.
Pastāvīgā surogātpasta straume nomoka veidotājus un administratorus. Daudzi kanālu operatori tādās platformās kā Telegram ir izteikuši vēlmi pēc specializēta pakalpojuma, kas varētu atpazīt un dzēst šos sarežģītos surogātpasta komentārus, reaģējot uz šo pieaugošo vajadzību. Šie operatori, kas sevi uzskata par “moderatoriem kā pakalpojumu”, ir gatavi investēt risinājumā un ir izteikuši gatavību maksāt USD 20–30 mēnesī vai izmantot uz lietojumu balstītu norēķinu modeli, pamatojoties uz ziņu vai ziņojumu skaitu. kas tiek skatīti.
Tomēr grūtības ar to nebeidzas. Ir gaidāms vilnis GPT- surogātpasta izplatītāji, kuri, attīstoties tehnoloģijām, kļūs vēl prasmīgāki, iespējams, izmantojot tādas stratēģijas kā atbildes aizkavēšanās vai dažādas AI personības, kas mijiedarbojas viena ar otru. Šādos apstākļos cilvēku lietotāju un robotu atšķiršana kļūst par sarežģītu uzdevumu.
Pat tehnoloģiju giganti cīnās ar šo problēmu. OpenAI spēra soli, lai to atrisinātu, izstrādājot teksta detektoru, kas paredzēts AI radītā satura identificēšanai. Diemžēl viņu centieni saskārās ar neveiksmi, jo projekts tika atlikts detektora zemās precizitātes dēļ, kā ziņoja TechCrunch 2023. gada jūlijā.
Platformu administratori nav vienīgie, kurus uztrauc pieaugums GPT- darbināmi surogātpasta roboti. Pat sociālo mediju pārvaldnieki un jaunizveidotie uzņēmumi tagad saskaras ar izaicinājumu atdalīt autentisku saturu no AI ģenerētiem iesniegumiem. Šis apstāklis norāda uz steidzamu vajadzību un rada iespēju jaunām iniciatīvām un projektiem, kas var radīt efektīvus risinājumus, lai cīnītos pret modernajām surogātpasta sūtīšanas metodēm.
Valodu modeļu sasniegumi un tiešsaistes dezinformācijas ietekme
Praktiskums un gandrīz cilvēciska sarunvalodas spēja GPT ir atzīmējuši lietotāji. Tomēr tās pašas iespējas, kas ir iemantojušas tai apbrīnu, rada arī bažas par tās iespējamo ļaunprātīgu izmantošanu.
Ņemot vērā AI prasmes atdarināt cilvēkiem līdzīgas reakcijas, pastāv bažas, ka tā tiek izmantota ļaunprātīgos nolūkos. Akadēmisko aprindu, kiberdrošības un AI nozaru eksperti uzsver iespējamo izmantošanu GPT ļaunu nodomu personas, lai izplatītu propagandu vai veicinātu nemierus digitālajās platformās.
Vēsturiski dezinformācijas izplatīšana prasīja ievērojamu cilvēku iejaukšanos. Uzlabotu valodas apstrādes sistēmu ieviešana var palielināt ietekmes operāciju mērogu un sasniedzamību mērķauditorijas atlase sociālajos medijos, tādējādi radot pielāgotākas un tādējādi potenciāli pārliecinošākas kampaņas.
Iepriekšējos gadījumos sociālo mediju platformas ir bijušas par lieciniekiem saskaņotiem centieniem izplatīt dezinformāciju. Piemēram, pirms 2016. gada ASV vēlēšanām Interneta pētniecības aģentūra, kas atrodas Sanktpēterburgā, uzsāka plašu kampaņu. Viņu mērķis, kā to secināja Senāta Izlūkošanas komiteja 2019. bija ietekmēt vēlētāju uztveri par prezidenta amata kandidātiem.
Janvāra ziņojumā uzsvērts, ka AI virzīta parādīšanās valodu modeļi varētu palielināt maldinoša satura izplatīšanu. Saturs varētu ne tikai palielināt apjomu, bet arī uzlabot pārliecinošo kvalitāti, padarot vidusmēra interneta lietotājiem izaicinājumu noteikt tā autentiskumu.
Džošs Goldšteins, kas ir saistīts ar Džordžtaunas Drošības un jauno tehnoloģiju centru un pētījuma līdzstrādnieks, minēja ģeneratīvo modeļu spēju izdalīt lielu daudzumu unikāla satura. Šāda iespēja ļautu personām ar ļaunprātīgiem nodomiem izplatīt dažādus stāstījumus, neizmantojot atkārtotu saturu.
Neskatoties uz tādu platformu kā Telegram centieniem, Twitter un Facebook, lai cīnītos pret viltotiem kontiem, valodu modeļu attīstība draud piesātināt šīs platformas ar maldinošākiem profiliem. Kārnegija Melona universitātes datorzinātņu profesors Vincents Konicers atzīmēja, ka progresīvās tehnoloģijas, piemēram, ChatGPT, varētu ievērojami veicināt viltotu profilu izplatību, vēl vairāk izjaucot robežas starp īstiem lietotājiem un automatizētiem kontiem.
Jaunākie pētījumi, tostarp Goldstein kunga raksts un drošības firmas WithSecure Intelligence ziņojums, ir uzsvēruši ģeneratīvie valodu modeļi veidojot maldinošus ziņu rakstus. Šie viltus stāsti, kad tie tiek izplatīti sociālās platformas, varētu ietekmēt sabiedrisko domu, īpaši izšķirošos vēlēšanu periodos.
Dezinformācijas pieaugums, ko veicina uzlabotas AI sistēmas, piemēram, Chat-GPT liek uzdot jautājumu: vai tiešsaistes platformām būtu jāveic aktīvāki pasākumi? Lai gan daži apgalvo, ka platformām ir stingri jāmarķē apšaubāms saturs, problēmas joprojām pastāv. Luis A Nunes Amaral, kas saistīts ar Ziemeļrietumu komplekso sistēmu institūtu, komentēja platformu cīņas, minot gan izmaksas, kas saistītas ar katras ziņas uzraudzību, gan netīšu iesaistīšanos, kas veicina šādu šķelšanos.
Lasiet vairāk par AI:
Atbildības noraidīšana
Atbilstīgi Uzticības projekta vadlīnijas, lūdzu, ņemiet vērā, ka šajā lapā sniegtā informācija nav paredzēta un to nedrīkst interpretēt kā juridisku, nodokļu, ieguldījumu, finanšu vai jebkāda cita veida padomu. Ir svarīgi ieguldīt tikai to, ko varat atļauties zaudēt, un meklēt neatkarīgu finanšu padomu, ja jums ir šaubas. Lai iegūtu papildinformāciju, iesakām skatīt pakalpojumu sniegšanas noteikumus, kā arī palīdzības un atbalsta lapas, ko nodrošina izdevējs vai reklāmdevējs. MetaversePost ir apņēmies sniegt precīzus, objektīvus pārskatus, taču tirgus apstākļi var tikt mainīti bez iepriekšēja brīdinājuma.
Par Autors
Damirs ir komandas vadītājs, produktu vadītājs un redaktors Metaverse Post, kas aptver tādas tēmas kā AI/ML, AGI, LLM, Metaverse un Web3- saistītie lauki. Viņa raksti katru mēnesi piesaista lielu auditoriju, kas pārsniedz miljonu lietotāju. Šķiet, ka viņš ir eksperts ar 10 gadu pieredzi SEO un digitālā mārketinga jomā. Damirs ir minēts Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto un citas publikācijas. Viņš ceļo starp AAE, Turciju, Krieviju un NVS kā digitālais nomads. Damirs ir ieguvis bakalaura grādu fizikā, kas, viņaprāt, ir devis viņam kritiskās domāšanas prasmes, kas nepieciešamas, lai gūtu panākumus nepārtraukti mainīgajā interneta vidē.
Vairāk rakstusDamirs ir komandas vadītājs, produktu vadītājs un redaktors Metaverse Post, kas aptver tādas tēmas kā AI/ML, AGI, LLM, Metaverse un Web3- saistītie lauki. Viņa raksti katru mēnesi piesaista lielu auditoriju, kas pārsniedz miljonu lietotāju. Šķiet, ka viņš ir eksperts ar 10 gadu pieredzi SEO un digitālā mārketinga jomā. Damirs ir minēts Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto un citas publikācijas. Viņš ceļo starp AAE, Turciju, Krieviju un NVS kā digitālais nomads. Damirs ir ieguvis bakalaura grādu fizikā, kas, viņaprāt, ir devis viņam kritiskās domāšanas prasmes, kas nepieciešamas, lai gūtu panākumus nepārtraukti mainīgajā interneta vidē.