Vijesti Tehnologija
Listopada 27, 2023

Tvrtke s umjetnom inteligencijom trebale bi potrošiti 30% svojih sredstava na istraživanje i razvoj u području sigurnosti i etike

Šteta uzrokovana predrasudama i lažnim informacijama već je vidljiva. Postoje naznake da bi se mogle pojaviti i druge opasnosti. Od ključne je važnosti ublažiti trenutne rizike i predvidjeti one koji se pojavljuju.

Tvrtke s umjetnom inteligencijom trebale bi potrošiti 30% svojih sredstava na istraživanje i razvoj u području sigurnosti i etike

Ne bismo znali kako osigurati da su napredni autonomni sustavi ili AGI sigurni ili kako ih testirati da su trenutno dostupni. Nadalje, vladama nedostaju institucije potrebne za zaustavljanje zlostavljanja i uvođenje sigurne prakse, čak i da jesu. Autori podržavaju razvoj učinkovitog državnog nadzora i preusmjeravanje napora istraživanja i razvoja prema sigurnosti i etici.

Kontrola i poštenje (sofisticiraniji sustavi mogu nadmudriti testiranje davanjem lažnih, ali uvjerljivih odgovora), robusnost (u novim uvjetima s pomakom distribucije ili suparničkim unosima), interpretabilnost (razumijevanje rada), procjena rizika (pojavljuju se nove sposobnosti koje je teško predvidjeti), i pojava novih izazova (načini neuspjeha bez presedana) neki su od izazova istraživanja i razvoja koji se neće riješiti razvoj snažnijih AI sustava.

Autori sugeriraju da bi sigurnost i etika trebali dobiti najmanje jednu trećinu sredstava za istraživanje i razvoj umjetne inteligencije.

Standarde je potrebno provoditi u odnosu na nacionalne institucije i globalno upravljanje. Umjetnoj inteligenciji to nedostaje, ali farmaceutskoj, financijskoj i nuklearnoj industriji nedostaje. Sada postoje poticaji za države i tvrtke da štede nauštrb sigurnosti. Tvrtke mogu profitirati od napretka umjetne inteligencije dok ostavljaju društvu da snosi posljedice, slično kao što industrije bacaju otpad u rijeke.

Snažno tehničko znanje i sposobnost brzog kretanja zahtjevi su za nacionalne institucije. U globalnoj areni, partnerstva i sporazumi su ključni. Moraju se izbjeći birokratske prepreke malim i predvidljivim modelima kako bi se zaštitila akademska istraživanja i aplikacije niskog rizika. Frontier modeli - odabrana skupina najmoćnijih sustava obučenih na superračunalima vrijednim milijarde dolara - trebali bi dobiti najveći fokus.

Vlade moraju biti otvorenije prema razvoju kako bi propisi bili učinkoviti. Regulatori bi trebali propisati registraciju modela, zaštititi interne doušnike, propisati izvješćivanje o incidentima i paziti na razvoj modela i korištenje superračunala.

Regulatori također moraju imati pristup tim sustavima prije njihovog puštanja u proizvodnju kako bi mogli procijeniti potencijalno štetna značajke poput stvaranja patogena, samoreplikacije i prodiranja u sustav.

Sustavi koji mogu biti opasni trebaju različite metode kontrole. Frontier model kreatori također moraju biti zakonski odgovorni za bilo kakvu štetu na njihovim sustavima koja se mogla izbjeći. To bi trebalo potaknuti ulaganja u sigurnost. Više značajki, kao što je državno licenciranje, sposobnost zaustavljanja razvoja kao odgovor na potencijalno opasno mogućnosti, kontrole pristupa i mjere sigurnosti informacija nepropusne za hakere na državnoj razini, mogu biti potrebne za izuzetno sposobne sustave.

Iako nema pravila, tvrtke bi trebale brzo razjasniti svoje ako-onda odgovornosti navodeći precizne korake koje će poduzeti ako određene mogućnosti modela prijeđu crvenu crtu. Ove mjere moraju biti temeljito obrazložene i neovisno potvrđene. Dakle, jest. Odvojena Dodatak politici sastavlja sažetak teza.

  • U listopadu Frontier Model Forum je uveo AI Safety Fund od preko 10 milijuna dolara, s ciljem poticanja napretka u istraživanju sigurnosti umjetne inteligencije. Fond, suradnja između Frontier Model Foruma i filantropskih partnera, pružit će potporu neovisnim istraživačima diljem svijeta koji su povezani s akademskim institucijama, istraživačkim organizacijama i startupima. Primarni sudionici inicijative su Anthropic, Google, Microsoft, OpenAI, zajedno s filantropskim organizacijama kao što su Zaklada Patrick J. McGovern, Zaklada David i Lucile Packard, Eric Schmidt i Jaan Tallinn. Fond za sigurnost umjetne inteligencije primarno je usredotočen na poticanje razvoja novih tehnika evaluacije i pristupa crvenom timu za modele umjetne inteligencije, s ciljem otkrivanja potencijalnih opasnosti. Forum planira uspostaviti Savjetodavni odbor u nadolazećim mjesecima, a ubrzo nakon toga objavit će svoj prvi poziv za dostavu prijedloga i dodjelu bespovratnih sredstava.
povezan: Uprava Ujedinjenog Kraljevstva za tržišno natjecanje i tržište pokreće reviziju modela umjetne inteligencije dok vladini napori na regulaciji eskaliraju

Izjava o odricanju od odgovornosti

U skladu s Smjernice projekta povjerenja, imajte na umu da informacije navedene na ovoj stranici nemaju namjeru i ne smiju se tumačiti kao pravni, porezni, investicijski, financijski ili bilo koji drugi oblik savjeta. Važno je ulagati samo ono što si možete priuštiti izgubiti i potražiti neovisni financijski savjet ako imate bilo kakvih nedoumica. Za dodatne informacije predlažemo da pogledate odredbe i uvjete, kao i stranice za pomoć i podršku koje pruža izdavatelj ili oglašivač. MetaversePost je predan točnom, nepristranom izvješćivanju, ali tržišni uvjeti podložni su promjenama bez prethodne najave.

O autoru

Damir je voditelj tima, product manager i urednik u Metaverse Post, koji pokriva teme kao što su AI/ML, AGI, LLMs, Metaverse i Web3- srodna polja. Njegovi članci privlače ogromnu publiku od preko milijun korisnika svakog mjeseca. Čini se da je stručnjak s 10 godina iskustva u SEO-u i digitalnom marketingu. Damir je spomenut u Mashableu, Wiredu, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto i druge publikacije. Putuje između UAE, Turske, Rusije i CIS-a kao digitalni nomad. Damir je stekao diplomu prvostupnika fizike, za koju vjeruje da mu je dala vještine kritičkog razmišljanja potrebne za uspjeh u stalno promjenjivom okruženju interneta. 

Više članaka
Damir Yalalov
Damir Yalalov

Damir je voditelj tima, product manager i urednik u Metaverse Post, koji pokriva teme kao što su AI/ML, AGI, LLMs, Metaverse i Web3- srodna polja. Njegovi članci privlače ogromnu publiku od preko milijun korisnika svakog mjeseca. Čini se da je stručnjak s 10 godina iskustva u SEO-u i digitalnom marketingu. Damir je spomenut u Mashableu, Wiredu, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto i druge publikacije. Putuje između UAE, Turske, Rusije i CIS-a kao digitalni nomad. Damir je stekao diplomu prvostupnika fizike, za koju vjeruje da mu je dala vještine kritičkog razmišljanja potrebne za uspjeh u stalno promjenjivom okruženju interneta. 

Institucionalni apetit raste prema Bitcoin ETF-ovima usred volatilnosti

Objave putem 13F prijava otkrivaju značajne institucionalne ulagače koji se upuštaju u Bitcoin ETF-ove, naglašavajući sve veće prihvaćanje ...

Znati više

Stiže dan izricanja presude: CZ-ova sudbina visi na ravnoteži dok američki sud razmatra izjavu DOJ-a

Changpeng Zhao danas će se suočiti s kaznom na američkom sudu u Seattleu.

Znati više
Pridružite se našoj zajednici inovativnih tehnologija
opširnije
Čitaj više
Posljednje upozorenje Edwarda Snowdena programerima Bitcoina: Neka privatnost postane prioritet na razini protokola ili riskirate da je izgubite
tržišta Sigurnost Wiki softver Priče i recenzije Tehnologija
Posljednje upozorenje Edwarda Snowdena programerima Bitcoina: Neka privatnost postane prioritet na razini protokola ili riskirate da je izgubite
Neka 10, 2024
Optimism-powered Ethereum Layer 2 Network Mint lansirat će svoj Mainnet 15. svibnja
Vijesti Tehnologija
Optimism-powered Ethereum Layer 2 Network Mint lansirat će svoj Mainnet 15. svibnja
Neka 10, 2024
Najbolje ponude ovog tjedna, velika ulaganja u AI, IT, Web3, i Crypto (06-10.04.)
probaviti posao tržišta softver Tehnologija
Najbolje ponude ovog tjedna, velika ulaganja u AI, IT, Web3, i Crypto (06-10.04.)
Neka 10, 2024
StaFi integrira podršku za EigenLayer LRT u svoj Liquid-Staking-as-a-Service Stack
tržišta Vijesti Tehnologija
StaFi integrira podršku za EigenLayer LRT u svoj Liquid-Staking-as-a-Service Stack
Neka 10, 2024
CRYPTOMERIA LABS PTE. LTD.