Processus d'IA d'Hiroshima
Qu’est-ce que le processus d’IA d’Hiroshima ?
Cette année, le Japon a accueilli le sommet du G7 en mai 2023, comme chaque année. L'Union européenne, le Canada, le Japon, l'Italie, la France, les États-Unis et le Royaume-Uni font partie des pays représentés au sommet du G7. Le lieu était Hiroshima et l’IA était le principal sujet de discussion lors de cette conférence du G7. Les conclusions les plus importantes de ce sommet montrent que les dirigeants ont donné la priorité au renforcement du cadre réglementaire afin de réduire les dangers possibles associés à l'IA et à l'accélération de l'utilisation de l'IA pour des cas d'utilisation avantageux au sein du gouvernement et de l'économie.
Services Connexes: La RBA évalue le cadre réglementaire des Stablecoins et des CBDC |
Compréhension du processus d'IA d'Hiroshima
En mai 2023, les pays du G7 ont convenu de donner la priorité à la collaboration pour une IA inclusive gouvernance, cherchant à développer des systèmes sûrs et fiables tout en maximisant les avantages de la technologie, y compris pour les économies en développement et émergentes, en comblant la fracture numérique.
Les principes d'Hiroshima pour les modèles d'IA avancés, y compris les modèles fondamentaux et les systèmes d'IA générative, ont été approuvés par le G7 en octobre dernier. Il s’agit d’un ensemble de 11 principes directeurs internationaux destinés à s’appliquer à tous les acteurs de l’IA et couvrant la conception, le développement, le déploiement et l’utilisation de systèmes d’IA avancés.
- Prendre les mesures appropriées tout au long du développement de systèmes d’IA avancés, y compris avant et tout au long de leur déploiement et de leur mise sur le marché, pour identifier, évaluer et atténuer les risques tout au long du cycle de vie de l’IA.
- Identifier et atténuer les vulnérabilités et, le cas échéant, les incidents et les schémas d'utilisation abusive, après le déploiement, y compris la mise sur le marché.
- Signaler publiquement les capacités, les limites et les domaines d’utilisation appropriée et inappropriée des systèmes d’IA avancés, afin de garantir une transparence suffisante, contribuant ainsi à accroître la responsabilité.
- Travailler à un partage responsable d’informations et à la déclaration d’incidents entre les organisations développant des systèmes d’IA avancés, notamment avec l’industrie, les gouvernements, la société civile et le monde universitaire.
- Élaborer, mettre en œuvre et divulguer des politiques de gouvernance et de gestion des risques en matière d’IA, fondées sur une approche basée sur les risques – y compris des politiques de confidentialité et des mesures d’atténuation, en particulier pour les organisations développant des systèmes d’IA avancés.
- Investir et mettez en œuvre des contrôles de sécurité robustes, notamment des mesures de sécurité physique, de cybersécurité et de protection contre les menaces internes tout au long du cycle de vie de l’IA.
- Développer et déployer du contenu fiable authentification et les mécanismes de provenance, lorsque cela est techniquement possible, tels que le filigrane ou d'autres techniques permettant aux utilisateurs d'identifier le contenu généré par l'IA.
- Donner la priorité à la recherche pour atténuer les risques sociétaux, de sûreté et de sécurité et donner la priorité aux investissements dans des mesures d’atténuation efficaces.
- Donner la priorité au développement de systèmes d’IA avancés pour relever les plus grands défis mondiaux, notamment, mais sans s’y limiter, la crise climatique, la santé mondiale et l’éducation.
- Promouvoir l’élaboration et, le cas échéant, l’adoption de normes techniques internationales.
- Mettre en œuvre des mesures de saisie de données et des protections appropriées pour les données personnelles et la propriété intellectuelle.
Ces principes ont à leur tour servi de base à la création d'un code de conduite pour les développeurs d'IA. L’adhésion des entreprises à ces principes est volontaire et devrait logiquement être adaptée aux spécificités de chaque juridiction.
Services Connexes: Nvidia lance le GPU H200 pour faciliter les charges de travail de traitement de l'IA générative |
Dernières nouvelles sur le processus d'IA d'Hiroshima
- Les pays industrialisés du G7 sont sur le point de convenir d'un code de conduite pour les entreprises développant des technologies avancées. intelligence artificielle systèmes. Le code en 11 points vise à promouvoir une IA sûre, sécurisée et digne de confiance à l’échelle mondiale. Le processus, lancé lors du « processus d’IA d’Hiroshima », vise à répondre aux problèmes de confidentialité et aux risques de sécurité. Le code oblige les entreprises à divulguer publiquement leurs rapports sur les capacités, les limites et les utilisations abusives de l’IA.
- Le Premier ministre britannique Rishi Sunak a annoncé la création du premier institut de sécurité de l’IA au monde, visant à évaluer et tester des modèles d’IA pour lutter contre les préjugés, la désinformation et les menaces extrêmes. Le sommet, prévu les 1er et 2 novembre, réunira des acteurs et des experts de l'IA pour établir un consensus international sur la sécurité de l'IA. La position prudente du Royaume-Uni sur Réglementation de l'IA et son accent sur l'innovation sera souligné.
Derniers messages sociaux sur le processus d’IA d’Hiroshima
«Retour à l'index du glossaireClause de non-responsabilité
En ligne avec la Lignes directrices du projet de confiance, veuillez noter que les informations fournies sur cette page ne sont pas destinées à être et ne doivent pas être interprétées comme des conseils juridiques, fiscaux, d'investissement, financiers ou toute autre forme de conseil. Il est important d’investir uniquement ce que vous pouvez vous permettre de perdre et de demander des conseils financiers indépendants en cas de doute. Pour plus d'informations, nous vous suggérons de vous référer aux conditions générales ainsi qu'aux pages d'aide et de support mises à disposition par l'émetteur ou l'annonceur. MetaversePost s'engage à fournir des rapports précis et impartiaux, mais les conditions du marché sont susceptibles de changer sans préavis.
A propos de l'auteur
Viktoriia est un écrivain sur une variété de sujets technologiques, notamment Web3.0, IA et crypto-monnaies. Sa vaste expérience lui permet d’écrire des articles perspicaces destinés à un public plus large.
Plus d'articlesViktoriia est un écrivain sur une variété de sujets technologiques, notamment Web3.0, IA et crypto-monnaies. Sa vaste expérience lui permet d’écrire des articles perspicaces destinés à un public plus large.