Procés d'IA d'Hiroshima
Què és el procés d'IA d'Hiroshima?
Aquest any, el Japó va acollir la cimera del G7 el maig de 2023, com cada any. La Unió Europea, el Canadà, el Japó, Itàlia, França, els Estats Units i el Regne Unit es troben entre les nacions representades a la cimera del G7. La ubicació era Hiroshima i la IA va ser el principal tema de discussió en aquesta conferència del G7. Les conclusions més importants d'aquesta cimera mostren que els líders van prioritzar l'enfortiment del marc regulador per reduir els possibles perills associats a la IA i accelerar l'ús de la IA per a casos d'ús avantatjos al govern i l'economia.
Comprensió del procés d'IA d'Hiroshima
El maig de 2023, els països del G7 van acordar prioritzar la col·laboració per a una IA inclusiva governança, tractant de desenvolupar sistemes segurs i fiables alhora que maximitzen els beneficis de la tecnologia, fins i tot per a les economies emergents i en desenvolupament, superant les bretxes digitals.
Els principis d'Hiroshima per als models avançats d'IA, inclosos els models fonamentals i els sistemes d'IA generativa, van ser aprovats pel G7 l'octubre passat. Són un conjunt d'11 principis rectors internacionals destinats a aplicar-se a tots els actors de la IA i cobreixen el disseny, el desenvolupament, el desplegament i l'ús de sistemes d'IA avançats.
- Prendre les mesures adequades durant el desenvolupament de sistemes d'IA avançats, inclòs abans i durant el seu desplegament i col·locació al mercat, per identificar, avaluar i mitigar els riscos al llarg del cicle de vida de la IA.
- Identificar i mitigar les vulnerabilitats i, si escau, els incidents i els patrons d'ús indegut, després del desplegament, inclosa la col·locació al mercat.
- Informar públicament de les capacitats, limitacions i dominis dels sistemes d'IA avançats d'ús adequat i inadequat, per garantir una transparència suficient i contribuir així a augmentar la responsabilitat.
- Treballar per compartir informació i informar d'incidents de manera responsable entre organitzacions que desenvolupen sistemes d'IA avançats, inclòs amb la indústria, els governs, la societat civil i el món acadèmic.
- Desenvolupar, implementar i divulgar polítiques de govern i gestió de riscos de la IA, basades en un enfocament basat en el risc, incloses polítiques de privadesa i mesures de mitigació, en particular per a les organitzacions que desenvolupen sistemes d'IA avançats.
- Invertiu i implementar controls de seguretat sòlids, incloses la seguretat física, la ciberseguretat i les salvaguardes d'amenaça interna durant tot el cicle de vida de la IA.
- Desenvolupar i desplegar contingut fiable autenticació i mecanismes de procedència, quan sigui tècnicament factible, com ara la marca d'aigua o altres tècniques per permetre als usuaris identificar el contingut generat per IA.
- Prioritzar la investigació per mitigar els riscos socials, de seguretat i de seguretat i prioritzar la inversió en mesures efectives de mitigació.
- Prioritzar el desenvolupament de sistemes d'IA avançats per abordar els reptes més grans del món, en particular, però no limitant-se a la crisi climàtica, la salut global i l'educació.
- Avançar el desenvolupament i, si escau, l'adopció de normes tècniques internacionals.
- Implementar mesures adequades d'entrada de dades i proteccions per a les dades personals i la propietat intel·lectual.
Aquests principis al seu torn han servit de base per a la creació d'a Codi de conducta per a desenvolupadors d'IA. L'adhesió de les empreses a aquests principis és voluntària i lògicament caldria adaptar-se a les especificitats de cada jurisdicció.
connex: Nvidia llança la GPU H200 per facilitar les càrregues de treball de processament d'IA generativa |
Últimes notícies sobre el procés d'IA d'Hiroshima
- Els països industrials del G7 acordaran un codi de conducta per a les empreses en desenvolupament avançat intel·ligència artificial sistemes. El codi d'11 punts té com a objectiu promoure una IA segura, segura i fiable a nivell mundial. El procés, iniciat durant el "procés d'IA d'Hiroshima", té com a objectiu abordar els problemes de privadesa i els riscos de seguretat. El codi obliga les empreses a divulgar públicament informes sobre capacitats, limitacions i ús indeguts d'IA.
- El primer ministre del Regne Unit, Rishi Sunak, ha anunciat el primer Institut de seguretat d'IA del món, amb l'objectiu d'avaluar i provar models d'IA per abordar el biaix, la desinformació i les amenaces extremes. La cimera, prevista per a l'1 i el 2 de novembre, reunirà les parts interessades i experts en IA per establir un consens internacional sobre la seguretat de la IA. La posició prudent del Regne Unit Regulació de la IA i es destacarà el seu enfocament a la innovació.
Últimes publicacions socials sobre el procés d'IA d'Hiroshima
« Tornar a l'índex del glossarirenúncia
En línia amb la Directrius del projecte Trust, si us plau, tingueu en compte que la informació proporcionada en aquesta pàgina no pretén ni s'ha d'interpretar com a assessorament legal, fiscal, d'inversió, financer o de cap altra forma. És important invertir només el que et pots permetre perdre i buscar assessorament financer independent si tens dubtes. Per obtenir més informació, us suggerim que feu referència als termes i condicions, així com a les pàgines d'ajuda i assistència proporcionades per l'emissor o l'anunciant. MetaversePost es compromet a fer informes precisos i imparcials, però les condicions del mercat estan subjectes a canvis sense previ avís.
About The Autor
Viktoriia és escriptora sobre diversos temes tecnològics, com ara Web3.0, IA i criptomonedes. La seva àmplia experiència li permet escriure articles per a un públic més ampli.
més articlesViktoriia és escriptora sobre diversos temes tecnològics, com ara Web3.0, IA i criptomonedes. La seva àmplia experiència li permet escriure articles per a un públic més ampli.