Informe de notícies Tecnologia
Octubre 27, 2023

Les empreses d'IA haurien de gastar el 30% del seu finançament en R+D en seguretat i ètica

El dany causat pels prejudicis i la informació falsa ja és evident. Hi ha indicis que també poden aparèixer altres perills. És fonamental mitigar els riscos actuals i preveure els emergents.

Les empreses d'IA haurien de gastar el 30% del seu finançament en R+D en seguretat i ètica

No sabríem com assegurar-nos que els sistemes autònoms avançats o AGI siguin segurs ni com provar-los si estiguessin disponibles ara mateix. A més, els governs no tenen les institucions necessàries per aturar els abusos i posar en pràctica pràctiques segures, encara que ho fessin. Els autors donen suport al desenvolupament d'una supervisió eficient del govern i a la reorientació dels esforços d'R+D cap a la seguretat i l'ètica.

Control i honestedat (els sistemes més sofisticats poden superar les proves produint respostes falses però convincents), robustesa (en noves condicions amb canvi de distribució o inputs adversaris), interpretabilitat (entendre el treball), avaluació de riscos (apareixen noves habilitats difícils de predir), i l'aparició de nous reptes (modes de fallada sense precedents) són alguns dels reptes d'R+D que no seran resolts per desenvolupament de sistemes d'IA més potents.

Els autors suggereixen que la seguretat i l'ètica haurien de rebre almenys un terç del finançament per a la R+D d'IA.

Cal fer complir les normes tant en relació amb les institucions nacionals com amb la governança global. La IA no té aquests, però les indústries farmacèutica, financera i nuclear sí. Ara hi ha incentius perquè les nacions i les empreses facin economia a costa de la seguretat. Les empreses poden beneficiar-se dels avenços de la IA mentre deixen que la societat assumeixi les conseqüències, de la mateixa manera que les indústries aboquen residus als rius.

Un fort coneixement tècnic i la capacitat de moure's ràpidament són requisits per a les institucions nacionals. En l'àmbit mundial, les associacions i els acords són essencials. S'han d'evitar els obstacles burocràtics als models petits i previsibles per salvaguardar la recerca acadèmica i les aplicacions de baix risc. Els models de frontera, un grup selecte dels sistemes més potents entrenats en supercomputadors de mil milions de dòlars, haurien de rebre el major focus.

Els governs han de ser més oberts a l'evolució per tal que les regulacions siguin efectives. Els reguladors haurien d'imposar el registre de models, protegir els informants interns, obligar a informar d'incidents i vigilar el desenvolupament de models i l'ús de superordinadors.

Els reguladors també han de tenir accés a aquests sistemes abans del seu llançament en producció per poder avaluar-los potencialment perjudicial característiques com la generació de patògens, l'autoreplicació i la penetració del sistema.

Els sistemes amb potencial de ser perillosos necessiten una varietat de mètodes de control. Model de frontera els creadors també han de ser legalment responsables de qualsevol dany als seus sistemes que s'hagués pogut evitar. Això hauria de fomentar la inversió en seguretat. Més funcions, com ara les llicències governamentals, la capacitat d'aturar el desenvolupament en resposta a potencialment perillós capacitats, controls d'accés i mesures de seguretat de la informació impermeables als pirates informàtics a nivell estatal, poden ser necessàries per a sistemes extremadament capaços.

Tot i que no hi ha regles, les empreses haurien d'aclarir ràpidament les seves responsabilitats de si aleshores descrivint els passos precisos que prendran si determinades capacitats del model creuen una línia vermella. Aquestes mesures s'han d'explicar a fons i confirmar de manera independent. Així, ho és. Un separat Complement de la política elabora un resum de tesis.

  • A l'octubre, el Fòrum del Model Fronterer ha introduït un Fons de seguretat d'IA de més de 10 milions de dòlars, amb l'objectiu d'impulsar avenços en la investigació de seguretat de la IA. El fons, una col·laboració entre el Frontier Model Forum i socis filantròpics, oferirà suport a investigadors independents de tot el món afiliats a institucions acadèmiques, organitzacions de recerca i startups. Els principals col·laboradors de la iniciativa són Anthropic, Google, Microsoft, OpenAI, juntament amb organitzacions filantròpiques com la Fundació Patrick J. McGovern, la Fundació David i Lucile Packard, Eric Schmidt i Jaan Tallinn. L'AI Safety Fund se centra principalment a reforçar el desenvolupament de noves tècniques d'avaluació i enfocaments d'equip vermell per als models d'IA, amb l'objectiu de descobrir perills potencials. El Fòrum té previst establir un Consell Assessor en els propers mesos, i poc després emetrà la seva primera convocatòria de propostes i atorgarà els premis.
connex: L'Autoritat de Competència i Mercats del Regne Unit llança una revisió dels models d'IA a mesura que els esforços de regulació del govern augmenten

renúncia

En línia amb la Directrius del projecte Trust, si us plau, tingueu en compte que la informació proporcionada en aquesta pàgina no pretén ni s'ha d'interpretar com a assessorament legal, fiscal, d'inversió, financer o de cap altra forma. És important invertir només el que et pots permetre perdre i buscar assessorament financer independent si tens dubtes. Per obtenir més informació, us suggerim que feu referència als termes i condicions, així com a les pàgines d'ajuda i assistència proporcionades per l'emissor o l'anunciant. MetaversePost es compromet a fer informes precisos i imparcials, però les condicions del mercat estan subjectes a canvis sense previ avís.

About The Autor

Damir és el líder d'equip, cap de producte i editor de Metaverse Post, que cobreix temes com AI/ML, AGI, LLMs, Metaverse i Web3-camps relacionats. Els seus articles atrauen una audiència massiva de més d'un milió d'usuaris cada mes. Sembla ser un expert amb 10 anys d'experiència en SEO i màrqueting digital. Damir ha estat esmentat a Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto i altres publicacions. Viatja entre els Emirats Àrabs Units, Turquia, Rússia i la CEI com a nòmada digital. Damir va obtenir una llicenciatura en física, que creu que li ha donat les habilitats de pensament crític necessàries per tenir èxit en el paisatge en constant canvi d'Internet. 

més articles
Damir Yalalov
Damir Yalalov

Damir és el líder d'equip, cap de producte i editor de Metaverse Post, que cobreix temes com AI/ML, AGI, LLMs, Metaverse i Web3-camps relacionats. Els seus articles atrauen una audiència massiva de més d'un milió d'usuaris cada mes. Sembla ser un expert amb 10 anys d'experiència en SEO i màrqueting digital. Damir ha estat esmentat a Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto i altres publicacions. Viatja entre els Emirats Àrabs Units, Turquia, Rússia i la CEI com a nòmada digital. Damir va obtenir una llicenciatura en física, que creu que li ha donat les habilitats de pensament crític necessàries per tenir èxit en el paisatge en constant canvi d'Internet. 

L'apetit institucional creix cap als ETF de Bitcoin enmig de la volatilitat

Les divulgacions a través de les presentacions 13F revelen inversors institucionals notables que s'estan incursionant en els ETF de Bitcoin, subratllant una acceptació creixent de...

saber Més

Arriba el dia de la sentència: el destí de CZ està en equilibri mentre el tribunal nord-americà considera la petició del DOJ

Changpeng Zhao està a punt d'enfrontar-se avui a la sentència en un tribunal dels Estats Units a Seattle.

saber Més
Uneix-te a la nostra comunitat tecnològica innovadora
Més...
Llegeix més
L'advertència final d'Edward Snowden als desenvolupadors de Bitcoin: "Fes de la privadesa una prioritat a nivell de protocol o arrisca a perdre-la
mercats Seguretat Wiki Software Històries i ressenyes Tecnologia
L'advertència final d'Edward Snowden als desenvolupadors de Bitcoin: "Fes de la privadesa una prioritat a nivell de protocol o arrisca a perdre-la
Pot 10, 2024
Ethereum Layer 2 Network Mint, impulsat per l'optimisme, llançarà la seva xarxa principal el 15 de maig
Informe de notícies Tecnologia
Ethereum Layer 2 Network Mint, impulsat per l'optimisme, llançarà la seva xarxa principal el 15 de maig
Pot 10, 2024
Les millors ofertes d'aquesta setmana, les principals inversions en IA, TI, Web3i Crypto (06-10.04)
Resum Negocis mercats Software Tecnologia
Les millors ofertes d'aquesta setmana, les principals inversions en IA, TI, Web3i Crypto (06-10.04)
Pot 10, 2024
StaFi integra el suport per a LRT d'EigenLayer a la seva pila Liquid-Staking-as-a-Service
mercats Informe de notícies Tecnologia
StaFi integra el suport per a LRT d'EigenLayer a la seva pila Liquid-Staking-as-a-Service
Pot 10, 2024
CRYPTOMERIA LABS PTE. LTD.