Processo de IA de Hiroshima
O que é o processo de IA de Hiroshima?
Este ano, o Japão acolheu a cimeira do G7 em maio de 2023, como acontece todos os anos. A União Europeia, o Canadá, o Japão, a Itália, a França, os Estados Unidos e o Reino Unido estão entre as nações representadas na Cimeira do G7. O local era Hiroshima e a IA foi o principal tema de discussão nesta conferência do G7. As conclusões mais importantes desta cimeira mostram que os líderes deram prioridade ao reforço do quadro regulamentar para reduzir os possíveis riscos associados à IA e acelerar a utilização da IA para casos de utilização vantajosos no governo e na economia.
Compreensão do processo de IA de Hiroshima
Em maio de 2023, os países do G7 concordaram em priorizar a colaboração para uma IA inclusiva governo, procurando desenvolver sistemas seguros e fiáveis, maximizando ao mesmo tempo os benefícios da tecnologia, nomeadamente para as economias em desenvolvimento e emergentes, através da redução do fosso digital.
Os princípios de Hiroshima para modelos avançados de IA, incluindo modelos fundamentais e sistemas generativos de IA, foram aprovados pelo G7 em outubro passado. Constituem um conjunto de 11 princípios orientadores internacionais que se destinam a ser aplicados a todos os intervenientes na IA e abrangem a conceção, o desenvolvimento, a implantação e a utilização de sistemas avançados de IA.
- Tomar medidas adequadas ao longo do desenvolvimento de sistemas avançados de IA, incluindo antes e durante a sua implantação e colocação no mercado, para identificar, avaliar e mitigar os riscos ao longo do ciclo de vida da IA.
- Identificar e mitigar vulnerabilidades e, se for caso disso, incidentes e padrões de utilização indevida, após a implantação, incluindo a colocação no mercado.
- Reportar publicamente as capacidades, limitações e domínios de utilização adequada e inadequada dos sistemas avançados de IA, para apoiar a garantia de transparência suficiente, contribuindo assim para aumentar a responsabilização.
- Trabalhar no sentido da partilha responsável de informações e da comunicação de incidentes entre organizações que desenvolvem sistemas avançados de IA, incluindo a indústria, os governos, a sociedade civil e o meio académico.
- Desenvolver, implementar e divulgar políticas de governação e gestão de riscos da IA, baseadas numa abordagem baseada no risco – incluindo políticas de privacidade e medidas de mitigação, em particular para organizações que desenvolvem sistemas avançados de IA.
- Investir implementar e implementar controles de segurança robustos, incluindo segurança física, segurança cibernética e proteções contra ameaças internas em todo o ciclo de vida da IA.
- Desenvolva e implante conteúdo confiável autenticação e mecanismos de proveniência, sempre que tecnicamente viável, como marcas de água ou outras técnicas que permitam aos utilizadores identificar conteúdos gerados por IA.
- Priorizar a investigação para mitigar os riscos sociais e de segurança e priorizar o investimento em medidas de mitigação eficazes.
- Priorizar o desenvolvimento de sistemas avançados de IA para enfrentar os maiores desafios do mundo, nomeadamente, mas não limitados, à crise climática, à saúde global e à educação.
- Promover o desenvolvimento e, quando apropriado, a adoção de normas técnicas internacionais.
- Implementar medidas adequadas de entrada de dados e proteções para dados pessoais e propriedade intelectual.
Esses princípios, por sua vez, serviram de base para a criação de um código de conduta para desenvolvedores de IA. A adesão das empresas a estes princípios é voluntária e teria logicamente que ser adaptada às especificidades de cada jurisdição.
Relacionado: Nvidia lança GPU H200 para facilitar cargas de trabalho de processamento de IA generativa |
Últimas notícias sobre o processo de IA de Hiroshima
- Os países industrializados do G7 deverão chegar a acordo sobre um código de conduta para as empresas que desenvolvem tecnologias avançadas inteligência artificial sistemas. O código de 11 pontos visa promover uma IA segura, protegida e confiável em todo o mundo. O processo, iniciado durante o “processo Hiroshima AI”, visa abordar questões de privacidade e riscos de segurança. O código obriga as empresas a divulgar publicamente relatórios sobre capacidades, limitações e uso indevido da IA.
- O primeiro-ministro do Reino Unido, Rishi Sunak, anunciou o primeiro Instituto de Segurança de IA do mundo, com o objetivo de avaliar e testar modelos de IA para lidar com preconceitos, desinformação e ameaças extremas. A cimeira, agendada para 1 a 2 de novembro, reunirá partes interessadas e especialistas em IA para estabelecer um consenso internacional sobre a segurança da IA. A posição cautelosa do Reino Unido em relação Regulamento da IA e seu foco na inovação será destacado.
Últimas postagens sociais sobre o processo de IA de Hiroshima
«Voltar ao Índice do GlossárioAviso Legal
Em linha com a Diretrizes do Projeto Trust, observe que as informações fornecidas nesta página não se destinam e não devem ser interpretadas como aconselhamento jurídico, tributário, de investimento, financeiro ou qualquer outra forma. É importante investir apenas o que você pode perder e procurar aconselhamento financeiro independente se tiver alguma dúvida. Para mais informações, sugerimos consultar os termos e condições, bem como as páginas de ajuda e suporte fornecidas pelo emissor ou anunciante. MetaversePost está comprometida com relatórios precisos e imparciais, mas as condições de mercado estão sujeitas a alterações sem aviso prévio.
Sobre o autor
Viktoriia é escritora sobre uma variedade de tópicos de tecnologia, incluindo Web3.0, IA e criptomoedas. Sua vasta experiência lhe permite escrever artigos perspicazes para um público mais amplo.
Mais artigosViktoriia é escritora sobre uma variedade de tópicos de tecnologia, incluindo Web3.0, IA e criptomoedas. Sua vasta experiência lhe permite escrever artigos perspicazes para um público mais amplo.