OpenAI Dezvăluie cea mai recentă abordare pentru asigurarea siguranței AI
Pe scurt
OpenAI a lansat o postare pe blog în care subliniază abordarea îmbunătățită a siguranței în urma preocupărilor recente cu privire la siguranță și confidențialitate și investigații.
Compania se angajează să efectueze teste riguroase, să angajeze experți externi pentru feedback și să colaboreze cu guvernele pentru a determina cele mai bune abordare pentru reglementările AI.
După ce s-a confruntat cu preocupări privind siguranța și confidențialitatea și urmărirea investigații recente în unele țări europene, OpenAI are eliberat o postare pe blog care subliniază abordarea îmbunătățită a companiei față de siguranță.
OpenAI se angajează să efectueze teste riguroase, să angajeze experți externi pentru feedback înainte de a lansa orice sistem nou și să colaboreze cu guvernele pentru a determina cea mai bună abordare pentru reglementările AI.
Anterior, compania a petrecut peste șase luni lucrând la siguranța și alinierea celui mai recent model al său, GPT-4, înainte de a-l lansa public. Pentru a asigura siguranța celui mai nou model de limbă, GPT-4, OpenAI angajat o echipă de peste 50 de experți: specialiști în siguranță, etică și politici AI, inclusiv cercetători și ingineri.
„În mod esențial, credem că societatea trebuie să aibă timp să se actualizeze și să se adapteze la IA din ce în ce mai capabilă și că toți cei care sunt afectați de această tehnologie ar trebui să aibă un cuvânt de spus semnificativ în modul în care AI se dezvoltă în continuare.”
OpenAI a scris.
OpenAISe concentrează pe siguranța și confidențialitatea copiilor
Italia interzisă ChatGPT, citând OpenAIeșecul lui de a verifica vârsta utilizatorilor săi, în ciuda faptului că este conceput pentru persoane cu vârsta de 13 ani și peste, ca unul dintre motive. Un accent critic al eforturilor companiei de siguranță s-a mutat pe protejarea copiilor prin implementarea opțiunilor de verificare a vârstei, care OpenAI se explorează acum, mai ales că instrumentele AI sunt destinate persoanelor cu vârsta de 18 ani sau mai mult sau de 13 ani și mai mult, cu aprobarea părinților.
Compania interzice cu strictețe generarea de conținut instigator la ură, hărțuitor, violent sau pentru adulți și GPT-4 are deja o probabilitate cu 82% mai mică de a răspunde la solicitările de conținut nepermis în comparație cu GPT-35..
OpenAI a stabilit un sistem robust de monitorizare a abuzurilor și speră să facă GPT-4 disponibile pentru mai multe persoane de-a lungul timpului. Compania lucrează cu dezvoltatori pentru atenuarea siguranței personalizate, cum ar fi Khan Academy, non-profit, și lucrează la funcții care să permită standarde mai stricte pentru rezultatele modelului.
Îmbunătățirea confidențialității este un alt aspect al siguranței OpenAI se concentrează, mai ales după cele recente scurgeri de date. Modelele lingvistice mari ale companiei AI sunt instruite pe o cantitate enormă de text care include conținut disponibil pentru public, conținut licențiat și conținut generat de recenzori umani; folosește datele pentru a face modelele AI mai utile pentru oameni.
OpenAI ia măsuri pentru a proteja confidențialitatea persoanelor prin eliminarea informațiilor personale din datele sale de formare, ajustarea modelelor pentru a respinge cererile de informații personale și ștergerea informațiilor personale din sistemele sale, la cerere. Acest lucru reduce șansa ca modelele AI să genereze răspunsuri care includ informații personale.
OpenAIabordarea lui a aborda problemele legate de siguranța IA înseamnă a căuta măsuri eficiente de atenuare și tehnici de aliniere și testați-le împotriva abuzului din lumea reală. De asemenea, se angajează să fie din ce în ce mai precaut în crearea și implementarea modelelor mai capabile și să îmbunătățească măsurile de siguranță. Guvernarea eficientă a dezvoltării și implementării AI este esențială pentru a asigura siguranța, care necesită inovare tehnică și instituțională.
Citeşte mai mult:
Declinare a responsabilităţii
În conformitate cu Ghidurile proiectului Trust, vă rugăm să rețineți că informațiile furnizate pe această pagină nu sunt destinate și nu trebuie interpretate ca fiind consiliere juridică, fiscală, investițională, financiară sau orice altă formă de consiliere. Este important să investești doar ceea ce îți poți permite să pierzi și să cauți sfaturi financiare independente dacă ai îndoieli. Pentru informații suplimentare, vă sugerăm să consultați termenii și condițiile, precum și paginile de ajutor și asistență furnizate de emitent sau agent de publicitate. MetaversePost se angajează să raporteze corecte, imparțial, dar condițiile de piață pot fi modificate fără notificare.
Despre autor
Agne este o jurnalistă care acoperă cele mai recente tendințe și evoluții în metaverse, AI și Web3 industrii pentru Metaverse Post. Pasiunea ei pentru povestire a determinat-o să conducă numeroase interviuri cu experți în aceste domenii, căutând mereu să descopere povești interesante și captivante. Agne deține o diplomă de licență în literatură și are o experiență vastă în scris despre o gamă largă de subiecte, inclusiv călătorii, artă și cultură. De asemenea, s-a oferit voluntar ca editor pentru organizația pentru drepturile animalelor, unde a contribuit la creșterea gradului de conștientizare cu privire la problemele de bunăstare a animalelor. Contactează-o pe [e-mail protejat].
Mai multe articoleAgne este o jurnalistă care acoperă cele mai recente tendințe și evoluții în metaverse, AI și Web3 industrii pentru Metaverse Post. Pasiunea ei pentru povestire a determinat-o să conducă numeroase interviuri cu experți în aceste domenii, căutând mereu să descopere povești interesante și captivante. Agne deține o diplomă de licență în literatură și are o experiență vastă în scris despre o gamă largă de subiecte, inclusiv călătorii, artă și cultură. De asemenea, s-a oferit voluntar ca editor pentru organizația pentru drepturile animalelor, unde a contribuit la creșterea gradului de conștientizare cu privire la problemele de bunăstare a animalelor. Contactează-o pe [e-mail protejat].