Companiile de inteligență artificială ar trebui să cheltuiască 30% din finanțare pe cercetare și dezvoltare în siguranță și etică
Prejudiciul cauzat de prejudicii și informații false este deja evident. Există indicii că pot apărea și alte pericole. Este esențial să atenuăm riscurile actuale și să le anticipăm pe cele emergente.
Nu am ști cum să ne asigurăm că sistemele autonome avansate sau AGI sunt sigure sau cum să le testăm dacă sunt disponibile chiar acum. Mai mult, guvernelor le lipsesc instituțiile necesare pentru a opri abuzurile și a pune în aplicare practici sigure, chiar dacă au făcut-o. Autorii susțin dezvoltarea unei supravegheri guvernamentale eficiente și redirecționarea eforturilor de cercetare și dezvoltare către siguranță și etică.
Control și onestitate (sistemele mai sofisticate pot depăși testarea prin producerea de răspunsuri false, dar convingătoare), robustețe (în condiții noi cu schimbare de distribuție sau intrări adverse), interpretabilitate (înțelegerea muncii), evaluarea riscurilor (apar noi abilități care sunt greu de prezis); și apariția de noi provocări (moduri de eșec fără precedent) sunt câteva dintre provocările de cercetare și dezvoltare care nu vor fi rezolvate de dezvoltarea unor sisteme AI mai puternice.
Autorii sugerează că siguranța și etica ar trebui să primească cel puțin o treime din finanțarea pentru cercetarea și dezvoltarea IA.
Standardele trebuie aplicate atât în raport cu instituțiile naționale, cât și cu guvernanța globală. AI nu are acestea, dar industriile farmaceutice, financiare și nucleare nu. Există acum stimulente pentru națiuni și întreprinderi să facă economii în detrimentul securității. Companiile pot profita de progresele AI, în timp ce lasă societatea să suporte consecințele, la fel cum industriile aruncă deșeurile în râuri.
Know-how tehnic puternic și capacitatea de a se mișca rapid sunt cerințe pentru instituțiile naționale. În arena globală, parteneriatele și acordurile sunt esențiale. Obstacolele birocratice din calea modelelor mici și previzibile trebuie evitate pentru a proteja cercetarea academică și aplicațiile cu risc scăzut. Modelele de frontieră – un grup select al celor mai puternice sisteme antrenate pe supercalculatoare de miliarde de dolari – ar trebui să primească cea mai mare atenție.
Guvernele trebuie să fie mai deschise cu privire la evoluții pentru ca reglementările să fie eficiente. Autoritățile de reglementare ar trebui să impună înregistrarea modelelor, să protejeze informatorii interni, să impună raportarea incidentelor și să țină cont de dezvoltarea modelelor și de utilizarea supercalculatoarelor.
Autoritățile de reglementare trebuie, de asemenea, să aibă acces la aceste sisteme înainte de lansarea lor în producție pentru a putea evalua potențial dăunător caracteristici precum generarea de agenți patogeni, auto-replicarea și penetrarea în sistem.
Sistemele cu potențial de a fi periculoase au nevoie de o varietate de metode de control. Model de frontieră creatorii trebuie, de asemenea, să fie trași la răspundere legal pentru orice daune aduse sistemelor lor care ar fi putut fi evitată. Acest lucru ar trebui să încurajeze investițiile în securitate. Mai multe caracteristici, cum ar fi licențele guvernamentale, capacitatea de a opri dezvoltarea ca răspuns la potențial periculos capabilități, controale de acces și măsuri de securitate a informațiilor impermeabile pentru hackeri la nivel de stat, ar putea fi necesare pentru sisteme extrem de capabile.
Deși nu există reguli, companiile ar trebui să-și clarifice rapid responsabilitățile dacă-atunci, subliniind pașii precisi pe care îi vor lua dacă anumite capabilități ale modelului depășesc linia roșie. Aceste măsuri trebuie să fie explicate în detaliu și confirmate în mod independent. Astfel, este. Un separat Supliment de politică alcătuiește un rezumat al tezelor.
- În octombrie, Frontier Model Forum a introdus un Fond de siguranță AI de peste 10 milioane USD, cu scopul de a genera progrese în cercetarea în domeniul siguranței AI. Fondul, o colaborare între Frontier Model Forum și partenerii filantropici, va oferi sprijin cercetătorilor independenți din întreaga lume afiliați cu instituții academice, organizații de cercetare și startup-uri. Principalii contribuitori la inițiativă sunt Anthropic, Google, Microsoft, OpenAI, împreună cu organizații filantropice precum Fundația Patrick J. McGovern, Fundația David și Lucile Packard, Eric Schmidt și Jaan Tallinn. Fondul pentru Siguranța AI se concentrează în primul rând pe consolidarea dezvoltării de noi tehnici de evaluare și abordări de echipă roșie pentru modelele AI, având ca scop descoperirea pericolelor potențiale. Forumul intenționează să înființeze un Consiliu consultativ în lunile următoare și va lansa prima sa cerere de propuneri și va acorda premii la scurt timp după aceea.
Declinare a responsabilităţii
În conformitate cu Ghidurile proiectului Trust, vă rugăm să rețineți că informațiile furnizate pe această pagină nu sunt destinate și nu trebuie interpretate ca fiind consiliere juridică, fiscală, investițională, financiară sau orice altă formă de consiliere. Este important să investești doar ceea ce îți poți permite să pierzi și să cauți sfaturi financiare independente dacă ai îndoieli. Pentru informații suplimentare, vă sugerăm să consultați termenii și condițiile, precum și paginile de ajutor și asistență furnizate de emitent sau agent de publicitate. MetaversePost se angajează să raporteze corecte, imparțial, dar condițiile de piață pot fi modificate fără notificare.
Despre autor
Damir este liderul echipei, manager de produs și editor la Metaverse Post, care acoperă subiecte precum AI/ML, AGI, LLM-uri, Metaverse și Web3-domenii conexe. Articolele sale atrag o audiență masivă de peste un milion de utilizatori în fiecare lună. El pare a fi un expert cu 10 ani de experiență în SEO și marketing digital. Damir a fost menționat în Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto și alte publicații. Călătorește între Emiratele Arabe Unite, Turcia, Rusia și CSI ca nomad digital. Damir a obținut o diplomă de licență în fizică, despre care crede că i-a oferit abilitățile de gândire critică necesare pentru a avea succes în peisajul în continuă schimbare al internetului.
Mai multe articoleDamir este liderul echipei, manager de produs și editor la Metaverse Post, care acoperă subiecte precum AI/ML, AGI, LLM-uri, Metaverse și Web3-domenii conexe. Articolele sale atrag o audiență masivă de peste un milion de utilizatori în fiecare lună. El pare a fi un expert cu 10 ani de experiență în SEO și marketing digital. Damir a fost menționat în Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto și alte publicații. Călătorește între Emiratele Arabe Unite, Turcia, Rusia și CSI ca nomad digital. Damir a obținut o diplomă de licență în fizică, despre care crede că i-a oferit abilitățile de gândire critică necesare pentru a avea succes în peisajul în continuă schimbare al internetului.