Proceso de IA de Hiroshima
¿Qué es el proceso de IA de Hiroshima?
Este año, Japón fue sede de la cumbre del G7 en mayo de 2023, como lo hace todos los años. La Unión Europea, Canadá, Japón, Italia, Francia, Estados Unidos y el Reino Unido se encuentran entre las naciones representadas en la Cumbre del G7. El lugar era Hiroshima y la IA fue el principal tema de discusión en esta conferencia del G7. Las conclusiones más importantes de esta cumbre muestran que los líderes priorizaron fortalecer el marco regulatorio para reducir los posibles peligros asociados con la IA y acelerar el uso de la IA para casos de uso ventajosos en el gobierno y la economía.
Relacionado:: RBA evalúa marco regulatorio para Stablecoins y CBDC |
Comprensión del proceso de IA de Hiroshima
En mayo de 2023, los países del G7 acordaron priorizar la colaboración para una IA inclusiva gobierno, buscando desarrollar sistemas seguros y confiables y al mismo tiempo maximizar los beneficios de la tecnología, incluso para las economías en desarrollo y emergentes, reduciendo las brechas digitales.
Los principios de Hiroshima En octubre pasado, el G7 aprobó la creación de modelos avanzados de IA, incluidos modelos fundamentales y sistemas generativos de IA. Son un conjunto de 11 principios rectores internacionales destinados a aplicarse a todos los actores de la IA y cubrir el diseño, desarrollo, implementación y uso de sistemas avanzados de IA.
- Tomar medidas adecuadas durante todo el desarrollo de sistemas avanzados de IA, incluso antes y durante su implementación y colocación en el mercado, para identificar, evaluar y mitigar los riesgos a lo largo del ciclo de vida de la IA.
- Identificar y mitigar vulnerabilidades y, cuando corresponda, incidentes y patrones de uso indebido, después del despliegue, incluida la comercialización.
- Informar públicamente las capacidades, limitaciones y dominios de uso apropiado e inapropiado de los sistemas avanzados de IA, para ayudar a garantizar una transparencia suficiente, contribuyendo así a aumentar la rendición de cuentas.
- Trabajar para compartir información responsablemente y reportar incidentes entre organizaciones que desarrollan sistemas avanzados de IA, incluso con la industria, los gobiernos, la sociedad civil y el mundo académico.
- Desarrollar, implementar y divulgar políticas de gestión de riesgos y gobernanza de la IA, basadas en un enfoque basado en el riesgo, incluidas políticas de privacidad y medidas de mitigación, en particular para las organizaciones que desarrollan sistemas avanzados de IA.
- Invertir implementar e implementar controles de seguridad sólidos, incluida la seguridad física, la ciberseguridad y las salvaguardias contra amenazas internas durante todo el ciclo de vida de la IA.
- Desarrollar e implementar contenido confiable autenticación y mecanismos de procedencia, cuando sea técnicamente factible, como marcas de agua u otras técnicas que permitan a los usuarios identificar contenido generado por IA.
- Priorizar la investigación para mitigar los riesgos sociales y de seguridad y priorizar la inversión en medidas de mitigación efectivas.
- Priorizar el desarrollo de sistemas avanzados de IA para abordar los mayores desafíos del mundo, en particular, entre otros, la crisis climática, la salud global y la educación.
- Avanzar en el desarrollo y, en su caso, adopción de normas técnicas internacionales.
- Implementar medidas apropiadas de entrada de datos y protecciones para datos personales y propiedad intelectual.
Estos principios han servido a su vez como base para la creación de un Código de Conducta para desarrolladores de IA. La adhesión de las empresas a estos principios es voluntaria y lógicamente debería adaptarse a las especificidades de cada jurisdicción.
Relacionado:: Nvidia lanza la GPU H200 para facilitar las cargas de trabajo de procesamiento de IA generativa |
Últimas noticias sobre el proceso de IA de Hiroshima
- Los países industriales del G7 se disponen a acordar un código de conducta para las empresas que desarrollan tecnologías avanzadas. inteligencia artificial sistemas. El código de 11 puntos tiene como objetivo promover una IA segura y confiable a nivel mundial. El proceso, iniciado durante el “proceso de IA de Hiroshima”, tiene como objetivo abordar las preocupaciones sobre la privacidad y los riesgos de seguridad. El código exige que las empresas divulguen públicamente informes sobre las capacidades, limitaciones y uso indebido de la IA.
- El primer ministro del Reino Unido, Rishi Sunak, ha anunciado el primer Instituto de Seguridad de IA del mundo, cuyo objetivo es evaluar y probar modelos de IA para abordar los prejuicios, la desinformación y las amenazas extremas. La cumbre, programada para el 1 y 2 de noviembre, reunirá a partes interesadas y expertos en IA para establecer un consenso internacional sobre la seguridad de la IA. La postura cautelosa del Reino Unido sobre Regulación AI y se destacará su enfoque en la innovación.
Últimas publicaciones sociales sobre el proceso de IA de Hiroshima
«Volver al índice del glosarioObservación
En línea con la Directrices del Proyecto Confianza, tenga en cuenta que la información proporcionada en esta página no pretende ser ni debe interpretarse como asesoramiento legal, fiscal, de inversión, financiero o de cualquier otro tipo. Es importante invertir sólo lo que pueda permitirse perder y buscar asesoramiento financiero independiente si tiene alguna duda. Para mayor información sugerimos consultar los términos y condiciones así como las páginas de ayuda y soporte proporcionadas por el emisor o anunciante. MetaversePost se compromete a brindar informes precisos e imparciales, pero las condiciones del mercado están sujetas a cambios sin previo aviso.
Sobre el Autor
Viktoriia es escritora sobre una variedad de temas tecnológicos que incluyen Web3.0, IA y criptomonedas. Su amplia experiencia le permite escribir artículos interesantes para un público más amplio.
Más artículosViktoriia es escritora sobre una variedad de temas tecnológicos que incluyen Web3.0, IA y criptomonedas. Su amplia experiencia le permite escribir artículos interesantes para un público más amplio.