Buletin de stiri Tehnologia
Octombrie 27, 2023

Companiile de inteligență artificială ar trebui să cheltuiască 30% din finanțare pe cercetare și dezvoltare în siguranță și etică

Prejudiciul cauzat de prejudicii și informații false este deja evident. Există indicii că pot apărea și alte pericole. Este esențial să atenuăm riscurile actuale și să le anticipăm pe cele emergente.

Companiile de inteligență artificială ar trebui să cheltuiască 30% din finanțare pe cercetare și dezvoltare în siguranță și etică

Nu am ști cum să ne asigurăm că sistemele autonome avansate sau AGI sunt sigure sau cum să le testăm dacă sunt disponibile chiar acum. Mai mult, guvernelor le lipsesc instituțiile necesare pentru a opri abuzurile și a pune în aplicare practici sigure, chiar dacă au făcut-o. Autorii susțin dezvoltarea unei supravegheri guvernamentale eficiente și redirecționarea eforturilor de cercetare și dezvoltare către siguranță și etică.

Control și onestitate (sistemele mai sofisticate pot depăși testarea prin producerea de răspunsuri false, dar convingătoare), robustețe (în condiții noi cu schimbare de distribuție sau intrări adverse), interpretabilitate (înțelegerea muncii), evaluarea riscurilor (apar noi abilități care sunt greu de prezis); și apariția de noi provocări (moduri de eșec fără precedent) sunt câteva dintre provocările de cercetare și dezvoltare care nu vor fi rezolvate de dezvoltarea unor sisteme AI mai puternice.

Autorii sugerează că siguranța și etica ar trebui să primească cel puțin o treime din finanțarea pentru cercetarea și dezvoltarea IA.

Standardele trebuie aplicate atât în ​​raport cu instituțiile naționale, cât și cu guvernanța globală. AI nu are acestea, dar industriile farmaceutice, financiare și nucleare nu. Există acum stimulente pentru națiuni și întreprinderi să facă economii în detrimentul securității. Companiile pot profita de progresele AI, în timp ce lasă societatea să suporte consecințele, la fel cum industriile aruncă deșeurile în râuri.

Know-how tehnic puternic și capacitatea de a se mișca rapid sunt cerințe pentru instituțiile naționale. În arena globală, parteneriatele și acordurile sunt esențiale. Obstacolele birocratice din calea modelelor mici și previzibile trebuie evitate pentru a proteja cercetarea academică și aplicațiile cu risc scăzut. Modelele de frontieră – un grup select al celor mai puternice sisteme antrenate pe supercalculatoare de miliarde de dolari – ar trebui să primească cea mai mare atenție.

Guvernele trebuie să fie mai deschise cu privire la evoluții pentru ca reglementările să fie eficiente. Autoritățile de reglementare ar trebui să impună înregistrarea modelelor, să protejeze informatorii interni, să impună raportarea incidentelor și să țină cont de dezvoltarea modelelor și de utilizarea supercalculatoarelor.

Autoritățile de reglementare trebuie, de asemenea, să aibă acces la aceste sisteme înainte de lansarea lor în producție pentru a putea evalua potențial dăunător caracteristici precum generarea de agenți patogeni, auto-replicarea și penetrarea în sistem.

Sistemele cu potențial de a fi periculoase au nevoie de o varietate de metode de control. Model de frontieră creatorii trebuie, de asemenea, să fie trași la răspundere legal pentru orice daune aduse sistemelor lor care ar fi putut fi evitată. Acest lucru ar trebui să încurajeze investițiile în securitate. Mai multe caracteristici, cum ar fi licențele guvernamentale, capacitatea de a opri dezvoltarea ca răspuns la potențial periculos capabilități, controale de acces și măsuri de securitate a informațiilor impermeabile pentru hackeri la nivel de stat, ar putea fi necesare pentru sisteme extrem de capabile.

Deși nu există reguli, companiile ar trebui să-și clarifice rapid responsabilitățile dacă-atunci, subliniind pașii precisi pe care îi vor lua dacă anumite capabilități ale modelului depășesc linia roșie. Aceste măsuri trebuie să fie explicate în detaliu și confirmate în mod independent. Astfel, este. Un separat Supliment de politică alcătuiește un rezumat al tezelor.

  • În octombrie, Frontier Model Forum a introdus un Fond de siguranță AI de peste 10 milioane USD, cu scopul de a genera progrese în cercetarea în domeniul siguranței AI. Fondul, o colaborare între Frontier Model Forum și partenerii filantropici, va oferi sprijin cercetătorilor independenți din întreaga lume afiliați cu instituții academice, organizații de cercetare și startup-uri. Principalii contribuitori la inițiativă sunt Anthropic, Google, Microsoft, OpenAI, împreună cu organizații filantropice precum Fundația Patrick J. McGovern, Fundația David și Lucile Packard, Eric Schmidt și Jaan Tallinn. Fondul pentru Siguranța AI se concentrează în primul rând pe consolidarea dezvoltării de noi tehnici de evaluare și abordări de echipă roșie pentru modelele AI, având ca scop descoperirea pericolelor potențiale. Forumul intenționează să înființeze un Consiliu consultativ în lunile următoare și va lansa prima sa cerere de propuneri și va acorda premii la scurt timp după aceea.
Legate de: Autoritatea pentru Concurență și Piețe din Marea Britanie lansează o revizuire a modelelor de inteligență artificială pe măsură ce eforturile de reglementare guvernamentale cresc

Declinare a responsabilităţii

În conformitate cu Ghidurile proiectului Trust, vă rugăm să rețineți că informațiile furnizate pe această pagină nu sunt destinate și nu trebuie interpretate ca fiind consiliere juridică, fiscală, investițională, financiară sau orice altă formă de consiliere. Este important să investești doar ceea ce îți poți permite să pierzi și să cauți sfaturi financiare independente dacă ai îndoieli. Pentru informații suplimentare, vă sugerăm să consultați termenii și condițiile, precum și paginile de ajutor și asistență furnizate de emitent sau agent de publicitate. MetaversePost se angajează să raporteze corecte, imparțial, dar condițiile de piață pot fi modificate fără notificare.

Despre autor

Damir este liderul echipei, manager de produs și editor la Metaverse Post, care acoperă subiecte precum AI/ML, AGI, LLM-uri, Metaverse și Web3-domenii conexe. Articolele sale atrag o audiență masivă de peste un milion de utilizatori în fiecare lună. El pare a fi un expert cu 10 ani de experiență în SEO și marketing digital. Damir a fost menționat în Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto și alte publicații. Călătorește între Emiratele Arabe Unite, Turcia, Rusia și CSI ca nomad digital. Damir a obținut o diplomă de licență în fizică, despre care crede că i-a oferit abilitățile de gândire critică necesare pentru a avea succes în peisajul în continuă schimbare al internetului. 

Mai multe articole
Damir Yalalov
Damir Yalalov

Damir este liderul echipei, manager de produs și editor la Metaverse Post, care acoperă subiecte precum AI/ML, AGI, LLM-uri, Metaverse și Web3-domenii conexe. Articolele sale atrag o audiență masivă de peste un milion de utilizatori în fiecare lună. El pare a fi un expert cu 10 ani de experiență în SEO și marketing digital. Damir a fost menționat în Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto și alte publicații. Călătorește între Emiratele Arabe Unite, Turcia, Rusia și CSI ca nomad digital. Damir a obținut o diplomă de licență în fizică, despre care crede că i-a oferit abilitățile de gândire critică necesare pentru a avea succes în peisajul în continuă schimbare al internetului. 

Apetitul instituțional crește față de ETF-urile Bitcoin pe fondul volatilității

Dezvăluirile prin dosarele 13F dezvăluie investitori instituționali de seamă care se amestecă în ETF-uri Bitcoin, subliniind o acceptare tot mai mare a...

Aflați mai multe

Sosește ziua sentinței: soarta lui CZ este în echilibru, în timp ce tribunalul american ia în considerare pledoaria DOJ

Changpeng Zhao este pe cale de a fi condamnat astăzi într-un tribunal american din Seattle.

Aflați mai multe
Alăturați-vă comunității noastre tehnologice inovatoare
Citeste mai mult
Află mai multe
Espresso Systems colaborează cu Polygon Labs pentru a dezvolta AggLayer pentru îmbunătățirea interoperabilității rollup-ului
Afaceri Buletin de stiri Tehnologia
Espresso Systems colaborează cu Polygon Labs pentru a dezvolta AggLayer pentru îmbunătățirea interoperabilității rollup-ului
9 Mai, 2024
Protocolul de infrastructură alimentat de ZKP ZKBase dezvăluie foaia de parcurs și plănuiește lansarea Testnetului în mai
Buletin de stiri Tehnologia
Protocolul de infrastructură alimentat de ZKP ZKBase dezvăluie foaia de parcurs și plănuiește lansarea Testnetului în mai
9 Mai, 2024
BLOCKCHANCE și CONF3RENCE se unesc pentru cel mai mare din Germania Web3 Conferință la Dortmund
Afaceri pieţe Software Povești și recenzii Tehnologia
BLOCKCHANCE și CONF3RENCE se unesc pentru cel mai mare din Germania Web3 Conferință la Dortmund
9 Mai, 2024
NuLink se lansează pe Bybit Web3 Platforma IDO. Faza de abonament se prelungește până pe 13 mai
pieţe Buletin de stiri Tehnologia
NuLink se lansează pe Bybit Web3 Platforma IDO. Faza de abonament se prelungește până pe 13 mai
9 Mai, 2024
CRYPTOMERIA LABS PTE. LTD.