OpenAI Apresenta ‘Estrutura de Preparação’ para Enfrentar Riscos de Desenvolvimento de IA
Em Breve
OpenAI lançou o seu «Quadro de Preparação» – um conjunto de ferramentas e processos para abordar preocupações sobre a segurança do desenvolvimento de modelos de IA.
Empresa de IA apoiada pela Microsoft OpenAI, lançou o seu «Quadro de Preparação» – um conjunto de ferramentas e processos para responder às preocupações crescentes sobre as implicações de segurança do desenvolvimento de modelos avançados de inteligência artificial (IA).
A Sam AltmanA empresa gerida fez o anúncio por meio de um plano detalhado publicado em seu site, com o objetivo de mostrar OpenAIO compromisso da empresa em gerenciar riscos potenciais associados às suas tecnologias de ponta. A empresa também forneceu mais detalhes sobre a estrutura nas redes sociais plataforma X .
OpenAIA estrutura do capacita o conselho a reverter decisões de segurança tomadas pelos executivos, introduzindo uma camada de supervisão na implantação de sua tecnologia mais recente. Além disso, a empresa delineou condições rigorosas para a implantação, enfatizando avaliações de segurança em áreas críticas como a cibersegurança e as ameaças nucleares.
Um dos elementos importantes da estratégia da empresa envolve a criação de um grupo consultivo encarregado de analisar os relatórios de segurança. As conclusões deste grupo serão comunicadas aos executivos e ao conselho da empresa, destacando uma abordagem colaborativa para abordar preocupações de segurança.
Abordagem responsável às preocupações da indústria
O movimento por OpenAI surge na sequência de preocupações crescentes na comunidade de IA relativamente aos riscos potenciais associados a modelos cada vez mais poderosos. Em abril, uma coalizão de líderes e especialistas da indústria de IA defendeu uma pausa de seis meses no desenvolvimento de sistemas mais poderosos do que OpenAI'S GPT-4, citando potenciais riscos sociais.
Sob a liderança de Sam Altman, OpenAI está a reforçar os seus processos internos de segurança para enfrentar proativamente as ameaças em evolução representadas pela IA prejudicial. Uma equipa dedicada supervisionará o trabalho técnico e a tomada de decisões de segurança, com uma estrutura operacional implementada para facilitar respostas eficientes aos riscos emergentes.
Este quadro inclui o desenvolvimento de “cartões de pontuação” de risco para acompanhar vários indicadores de danos potenciais, desencadeando revisões e intervenções quando são atingidos limiares de risco específicos.
“Faremos avaliações e atualizaremos continuamente os ‘scorecards’ dos nossos modelos. Avaliaremos todos os nossos modelos de fronteira, inclusive a cada aumento efetivo de computação de 2x durante as execuções de treinamento. Levaremos os modelos ao seu limite”, disse o ChatGPT criador.
“Em nossas linhas de base de segurança, apenas modelos com pontuação pós-mitigação média ou inferior podem ser implantados, e apenas modelos com pontuação pós-mitigação alta ou inferior podem ser desenvolvidos posteriormente. Também aumentamos as proteções de segurança proporcionais ao risco do modelo”, acrescentou.
Além disso, a empresa enfatiza a natureza dinâmica da sua estrutura, comprometendo-se com o refinamento contínuo com base em novos dados, feedback e pesquisas. Também se compromete a colaborar estreitamente com partes externas e equipas internas para rastrear o uso indevido no mundo real, demonstrando um compromisso com a responsabilização e AI responsável desenvolvimento.
As OpenAI toma medidas proativas para abordar questões de segurança, as empresas precisam de estabelecer um precedente para o desenvolvimento ético e seguro da IA numa era em que as capacidades da tecnologia de IA generativa continuam a cativar e, simultaneamente, a levantar questões importantes sobre o seu impacto potencial na sociedade.
Aviso Legal
Em linha com a Diretrizes do Projeto Trust, observe que as informações fornecidas nesta página não se destinam e não devem ser interpretadas como aconselhamento jurídico, tributário, de investimento, financeiro ou qualquer outra forma. É importante investir apenas o que você pode perder e procurar aconselhamento financeiro independente se tiver alguma dúvida. Para mais informações, sugerimos consultar os termos e condições, bem como as páginas de ajuda e suporte fornecidas pelo emissor ou anunciante. MetaversePost está comprometida com relatórios precisos e imparciais, mas as condições de mercado estão sujeitas a alterações sem aviso prévio.
Sobre o autor
Kumar é um jornalista de tecnologia experiente com especialização nas interseções dinâmicas de IA/ML, tecnologia de marketing e campos emergentes como criptografia, blockchain e NFTS. Com mais de 3 anos de experiência no setor, Kumar estabeleceu um histórico comprovado na elaboração de narrativas convincentes, na condução de entrevistas perspicazes e no fornecimento de insights abrangentes. A experiência de Kumar reside na produção de conteúdo de alto impacto, incluindo artigos, relatórios e publicações de pesquisa para plataformas importantes do setor. Com um conjunto único de habilidades que combina conhecimento técnico e narrativa, Kumar se destaca na comunicação de conceitos tecnológicos complexos para diversos públicos de maneira clara e envolvente.
Mais artigosKumar é um jornalista de tecnologia experiente com especialização nas interseções dinâmicas de IA/ML, tecnologia de marketing e campos emergentes como criptografia, blockchain e NFTS. Com mais de 3 anos de experiência no setor, Kumar estabeleceu um histórico comprovado na elaboração de narrativas convincentes, na condução de entrevistas perspicazes e no fornecimento de insights abrangentes. A experiência de Kumar reside na produção de conteúdo de alto impacto, incluindo artigos, relatórios e publicações de pesquisa para plataformas importantes do setor. Com um conjunto único de habilidades que combina conhecimento técnico e narrativa, Kumar se destaca na comunicação de conceitos tecnológicos complexos para diversos públicos de maneira clara e envolvente.