Eksperti brīdina par “ļaunprātīgiem ievietojumiem” AI datu kopās ChatGPT
Īsumā
ChatGPT ir potenciāli neaizsargāti apmācību datu dēļ.
Pēc pētnieku domām, tikai par 60 USD ASV mēs varētu saindēt 0.01% LAION-400 vai COYO-700 datu kopu 2022. gadā.
ChatGPT tehnoloģija kļūst arvien populārāka, taču nesen pētniecība liecina, ka šī tehnoloģija var būt neaizsargāta tās izmantoto apmācības datu dēļ. Tā kā modeļi kļūst sarežģītāki un datu kopas kļūst arvien lielākas un sarežģītākas, ļaunprātīgi dalībnieki var izmantot šo ievainojamību, lai manipulētu ar datu kopām un liktu mašīnmācīšanās modeļiem radīt neprecīzus rezultātus.
Ieteicams: 10 daudzsološākās akcijas, ko prognozē ChatGPT (AI), lai 2023. gadā pārspētu vadošos pasaules fondus |
Galvenās bažas rada tas, ka tērzēšanas robotu datubāzes bieži ir “nosacīti pārbaudītas” datu kopas, kas nozīmē, ka datiem tiek piešķirts zināms uzticības līmenis bez plašas pārbaudes. Citiem vārdiem sakot, šīm datu kopām bieži var būt problēmas, kas nav ņemtas vērā. Lai gan datu kopu validācija bieži netiek veikta to lielā izmēra dēļ, pastāv iespēja, ka ļaunprātīgi dalībnieki var manipulēt ar šiem datiem.
Faktiski pētnieki ir ierosinājuši, ka līdz 2022. gadam uzbrucēji varētu iztērēt aptuveni 60 USD, lai saindētu 0.01% LAION-400 vai COYO-700 datu kopu. Lai gan tas neizklausās tik daudz, ļaunprātīgi dalībnieki varētu izmantot šos saindētos datus savā labā, ja tos nekontrolēs. Ļaunprātīgi dati galu galā var sūce lielākās datu kopās, sabojājot datu kvalitāti un radot neuzticamus mašīnmācīšanās modeļus.
Ir jāveic pasākumi, lai aizsargātu datu bāzes pret ļaunprātīgiem datiem. Vairāku datu avotu apkopošanai vajadzētu kļūt par tērzēšanas robota standartu apmācības datu kopas lai nodrošinātu datu uzticamību un precizitāti. Turklāt uzņēmumiem vajadzētu eksperimentēt ar datu kopām, lai nodrošinātu, ka tās nav neaizsargātas pret ļaunprātīgiem dalībniekiem.
AI tērzēšanas roboti ar ļaunprātīgu kodu var būt neaizsargāti pret uzlaušanu
Ļaunprātīga koda draudi tērzēšanas robotos var būt diezgan nopietni; ļaunprātīgu kodu var izmantot, lai nozagtu lietotāja datus, nodrošinātu ļaunprātīgu piekļuvi serveriem un iespējotu ļaunprātīgas darbības, piemēram, naudas atmazgāšana vai datu eksfiltrācija. Ja AI tērzēšanas robots ir apmācīts par datiem ar ļaunprātīgiem ieliktņiem, tas var neapzināti ievadīt ļaunprātīgo kodu savās atbildēs un neapzināti tikt izmantots kā ļaunprātīgas peļņas rīks.
Ļaunprātīgi dalībnieki var izmantot šo ievainojamību, apzināti vai netīši ievadot ļaunprātīgu kodu apmācību dati. Turklāt, tā kā AI tērzēšanas roboti mācās no tiem sniegtajiem datiem, tas var arī novest pie tā, ka viņi iemācīsies nepareizas atbildes vai pat ļaunprātīgu rīcību.
Vēl viens drauds, ar ko var saskarties AI tērzēšanas roboti, ir “pārmērīga pielāgošana”. Tas ir tad, kad prognožu modeļi tiek pārāk rūpīgi apmācīti, pamatojoties uz tiem sniegtajiem datiem, tādējādi radot sliktas prognozes, kad tiek parādīti jauni dati. Tā var būt īpaša problēma kā AI tērzēšanas roboti Apmācīti par ļaunprātīgu kodu varētu kļūt efektīvāki, ievadot ļaunprātīgu kodu savās atbildēs, kad viņi iepazīstas ar datiem.
Ir svarīgi apzināties riskus un veikt piesardzības pasākumus, lai garantētu apmācībā izmantotos datus ChatGPT ir droša un uzticama, lai novērstu šīs iespējamās nepilnības. Apmācībai izmantotie sākotnējie dati arī jāglabā atsevišķi un unikāli; “Ļaunprātīgu ieliktņu” reklamēšana nedrīkst būt pretrunā ar citiem avotiem vai pārklāties ar tiem. Ir jāpārbauda un jāsalīdzina ar citiem domēniem, vai ir iespējams “tvert” vairākus apstiprinātus domēnus, lai apstiprinātu datus.
Chatbot tehnoloģija sola pārveidot to, kā cilvēki vada cilvēku diskusijas. Taču, pirms tas var pilnībā realizēt savu potenciālu, tas ir jāuzlabo un jāaizsargā. Tērzēšanas robotu datu kopas ir rūpīgi jāpārbauda un jāsagatavo, lai atvairītu ļaunprātīgus dalībniekus. To darot, mēs varam nodrošināt, ka pilnībā izmantojam tehnoloģijas potenciālu un turpināsim virzīt uz priekšu ierobežojumi mākslīgā intelekta.
Lasiet vairāk par AI:
Atbildības noraidīšana
Atbilstīgi Uzticības projekta vadlīnijas, lūdzu, ņemiet vērā, ka šajā lapā sniegtā informācija nav paredzēta un to nedrīkst interpretēt kā juridisku, nodokļu, ieguldījumu, finanšu vai jebkāda cita veida padomu. Ir svarīgi ieguldīt tikai to, ko varat atļauties zaudēt, un meklēt neatkarīgu finanšu padomu, ja jums ir šaubas. Lai iegūtu papildinformāciju, iesakām skatīt pakalpojumu sniegšanas noteikumus, kā arī palīdzības un atbalsta lapas, ko nodrošina izdevējs vai reklāmdevējs. MetaversePost ir apņēmies sniegt precīzus, objektīvus pārskatus, taču tirgus apstākļi var tikt mainīti bez iepriekšēja brīdinājuma.
Par Autors
Damirs ir komandas vadītājs, produktu vadītājs un redaktors Metaverse Post, kas aptver tādas tēmas kā AI/ML, AGI, LLM, Metaverse un Web3- saistītie lauki. Viņa raksti katru mēnesi piesaista lielu auditoriju, kas pārsniedz miljonu lietotāju. Šķiet, ka viņš ir eksperts ar 10 gadu pieredzi SEO un digitālā mārketinga jomā. Damirs ir minēts Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto un citas publikācijas. Viņš ceļo starp AAE, Turciju, Krieviju un NVS kā digitālais nomads. Damirs ir ieguvis bakalaura grādu fizikā, kas, viņaprāt, ir devis viņam kritiskās domāšanas prasmes, kas nepieciešamas, lai gūtu panākumus nepārtraukti mainīgajā interneta vidē.
Vairāk rakstusDamirs ir komandas vadītājs, produktu vadītājs un redaktors Metaverse Post, kas aptver tādas tēmas kā AI/ML, AGI, LLM, Metaverse un Web3- saistītie lauki. Viņa raksti katru mēnesi piesaista lielu auditoriju, kas pārsniedz miljonu lietotāju. Šķiet, ka viņš ir eksperts ar 10 gadu pieredzi SEO un digitālā mārketinga jomā. Damirs ir minēts Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto un citas publikācijas. Viņš ceļo starp AAE, Turciju, Krieviju un NVS kā digitālais nomads. Damirs ir ieguvis bakalaura grādu fizikā, kas, viņaprāt, ir devis viņam kritiskās domāšanas prasmes, kas nepieciešamas, lai gūtu panākumus nepārtraukti mainīgajā interneta vidē.