OpenAI Iepazīstina ar savu jaunāko pieeju AI drošības nodrošināšanai
Īsumā
OpenAI ir publicējusi emuāra ziņu, kurā izklāstīta tās uzlabotā pieeja drošībai pēc nesenajām bažām par drošību un privātumu un izmeklēšanu.
Uzņēmums apņemas veikt stingras pārbaudes, piesaistīt ārējos ekspertus atsauksmju sniegšanai un sadarboties ar valdībām, lai noteiktu labāko pieeja AI noteikumiem.
Pēc bažām par drošību un privātumu un sekošanu nesenās izmeklēšanas dažās Eiropas valstīs, OpenAI ir atbrīvots emuāra ieraksts, kurā izklāstīta uzņēmuma uzlabotā pieeja drošībai.
OpenAI apņemas veikt stingru testēšanu, iesaistīt ārējos ekspertus atsauksmju sniegšanai pirms jebkuras jaunas sistēmas izlaišanas un sadarboties ar valdībām, lai noteiktu labāko pieeju AI noteikumiem.
Iepriekš uzņēmums vairāk nekā sešus mēnešus strādāja pie sava jaunākā modeļa drošības un saskaņošanas, GPT-4, pirms tā publiskošanas. Lai nodrošinātu jaunākā valodas modeļa drošību, GPT-4, OpenAI iznomāts vairāk nekā 50 ekspertu komanda: AI drošības, ētikas un politikas speciālisti, tostarp pētnieki un inženieri.
"Būtiski, mēs uzskatām, ka sabiedrībai ir jābūt laikam, lai atjauninātu un pielāgotos arvien spējīgākam AI, un ikvienam, ko ietekmē šī tehnoloģija, ir jābūt nozīmīgai ietekmei uz to, kā AI attīstās tālāk."
OpenAI rakstīja.
OpenAI's koncentrējas uz bērnu drošību un privātumu
Itālija aizliegta ChatGPT, citējot OpenAIViens no iemesliem ir nespēja pārbaudīt savu lietotāju vecumu, lai gan tas ir paredzēts personām vecumā no 13 gadiem. Uzņēmuma drošības centienu galvenā uzmanība ir pievērsta bērnu aizsardzībai, ieviešot vecuma pārbaudes iespējas, kas OpenAI tagad pēta, jo īpaši tāpēc, ka AI rīki ir paredzēti personām vecumā no 18 gadiem vai 13 gadiem un vecākiem ar vecāku apstiprinājumu.
Uzņēmums stingri aizliedz naidīga, uzmācīga, vardarbīga vai pieaugušajiem paredzēta satura ģenerēšanu un GPT-4 jau ir par 82% mazāka iespēja atbildēt uz neatļauta satura pieprasījumiem, salīdzinot ar GPT-3. 5.
OpenAI ir izveidojusi spēcīgu sistēmu, lai uzraudzītu ļaunprātīgu izmantošanu, un cer to izveidot GPT-4 laika gaitā pieejams lielākam skaitam cilvēku. Uzņēmums sadarbojas ar izstrādātājiem, lai izstrādātu pielāgotus drošības mazināšanas pasākumus, piemēram, bezpeļņas Khan Academy, un strādā pie funkcijām, lai nodrošinātu stingrākus modeļu izvades standartus.
Privātuma uzlabošana ir vēl viens drošības aspekts OpenAI koncentrējas uz, īpaši pēc nesenā datu pārkāpumi. AI uzņēmuma lielie valodu modeļi ir apmācīti, izmantojot milzīgu daudzumu teksta, kas ietver publiski pieejamu saturu, licencētu saturu un saturu, ko ģenerējuši cilvēku recenzenti; tas izmanto datus, lai padarītu AI modeļus noderīgākus cilvēkiem.
OpenAI veic pasākumus, lai aizsargātu personu privātumu, noņemot personisko informāciju no saviem apmācības datiem, precizējot modeļus, lai noraidītu personas informācijas pieprasījumus, un pēc pieprasījuma dzēšot personisko informāciju no savām sistēmām. Tas samazina iespēju, ka AI modeļi ģenerēs atbildes, kas ietver personas informāciju.
OpenAIpieeja AI drošības problēmu risināšana ir efektīvas seku mazināšanas iespējas un izlīdzināšanas metodes un pārbaudīt tās pret ļaunprātīgu izmantošanu reālajā pasaulē. Tas arī apņemas būt arvien piesardzīgākam, veidojot un izvietojot efektīvākus modeļus, kā arī uzlabot drošības pasākumus. Efektīva AI izstrādes un ieviešanas pārvaldība ir būtiska, lai nodrošinātu drošību, kas prasa tehniskus un institucionālus jauninājumus.
Lasīt vairāk:
Atbildības noraidīšana
Atbilstīgi Uzticības projekta vadlīnijas, lūdzu, ņemiet vērā, ka šajā lapā sniegtā informācija nav paredzēta un to nedrīkst interpretēt kā juridisku, nodokļu, ieguldījumu, finanšu vai jebkāda cita veida padomu. Ir svarīgi ieguldīt tikai to, ko varat atļauties zaudēt, un meklēt neatkarīgu finanšu padomu, ja jums ir šaubas. Lai iegūtu papildinformāciju, iesakām skatīt pakalpojumu sniegšanas noteikumus, kā arī palīdzības un atbalsta lapas, ko nodrošina izdevējs vai reklāmdevējs. MetaversePost ir apņēmies sniegt precīzus, objektīvus pārskatus, taču tirgus apstākļi var tikt mainīti bez iepriekšēja brīdinājuma.
Par Autors
Agne ir žurnāliste, kas atspoguļo jaunākās tendences un notikumus metaversā, AI un Web3 nozares Metaverse Post. Viņas aizraušanās ar stāstīšanu ir likusi viņai vadīt daudzas intervijas ar šo jomu ekspertiem, vienmēr cenšoties atklāt aizraujošus un saistošus stāstus. Agnei ir bakalaura grāds literatūrā, un viņai ir plaša pieredze rakstīšanā par dažādām tēmām, tostarp ceļošanu, mākslu un kultūru. Viņa ir arī brīvprātīgi piedalījusies par redaktori dzīvnieku tiesību organizācijā, kur palīdzējusi vairot izpratni par dzīvnieku labturības jautājumiem. Sazinieties ar viņu tālāk [e-pasts aizsargāts].
Vairāk rakstusAgne ir žurnāliste, kas atspoguļo jaunākās tendences un notikumus metaversā, AI un Web3 nozares Metaverse Post. Viņas aizraušanās ar stāstīšanu ir likusi viņai vadīt daudzas intervijas ar šo jomu ekspertiem, vienmēr cenšoties atklāt aizraujošus un saistošus stāstus. Agnei ir bakalaura grāds literatūrā, un viņai ir plaša pieredze rakstīšanā par dažādām tēmām, tostarp ceļošanu, mākslu un kultūru. Viņa ir arī brīvprātīgi piedalījusies par redaktori dzīvnieku tiesību organizācijā, kur palīdzējusi vairot izpratni par dzīvnieku labturības jautājumiem. Sazinieties ar viņu tālāk [e-pasts aizsargāts].