Antrópico, Google, Microsoft e OpenAI Nomear diretor executivo para o Frontier Model Forum e revelar fundo de segurança de IA de US$ 10 milhões
Em Breve
Antrópico, Google, Microsoft e OpenAI apresentaram Chris Meserole como o Diretor Executivo inaugural do Frontier Model Forum.
Simultaneamente, anunciaram um fundo substancial para a segurança da IA, com mais de 10 milhões de dólares em financiamento.
Antrópico, Google, Microsoft e OpenAI nomeado Chris Meserole como Diretor Executivo inaugural do Frontier Model Forum. O consórcio industrial dedica-se a promover a progressão segura e ética de modelos de IA de ponta em todo o mundo. Simultaneamente, o Fórum introduziu um Fundo de Segurança de IA de mais de US$ 10 milhões. O objetivo do fundo é impulsionar avanços na pesquisa de segurança de IA.
Diretora Executiva Chris Meserole traz uma vasta experiência em política tecnológica e governança de tecnologias emergentes. Antes de sua nomeação, atuou como Diretor da Iniciativa de Inteligência Artificial e Tecnologia Emergente na Brookings Institution. Na sua nova função, Meserole liderará os esforços para avançar na investigação sobre segurança da IA, identificar as melhores práticas para o desenvolvimento seguro de modelos de IA, disseminar o conhecimento às partes interessadas e apoiar iniciativas que aproveitem a IA para enfrentar os desafios sociais.
“Os modelos de IA mais poderosos representam uma enorme promessa para a sociedade, mas para concretizar o seu potencial, precisamos de compreender melhor como desenvolvê-los e avaliá-los com segurança. Estou animado para enfrentar esse desafio com o Frontier Model Forum”,
disse Meserole.
O Fundo para a Segurança da IA surgiu em resposta à rápida progressão das capacidades da IA ao longo do ano passado, necessitando de mais investigação académica sobre a segurança da IA. Este fundo, uma colaboração entre o Frontier Model Forum e parceiros filantrópicos, fornecerá apoio a investigadores independentes em todo o mundo afiliados a instituições académicas, organizações de investigação e startups.
Os principais contribuintes para esta iniciativa são Anthropic, Google, Microsoft e OpenAI, juntamente com organizações filantrópicas como a Fundação Patrick J. McGovern, a Fundação David e Lucile Packard, Eric Schmidt e Jaan Tallinn. Suas contribuições combinadas ultrapassam US$ 10 milhões, com a expectativa de doações adicionais de outros parceiros.
No início deste ano, os membros do Fórum assumiram compromissos voluntários na Casa Branca, incluindo permitir a descoberta e comunicação de vulnerabilidades por terceiros nos seus sistemas de IA. O AI Safety Fund alinha-se com este compromisso, oferecendo financiamento às comunidades externas para examinar minuciosamente os sistemas fronteiriços de IA. Uma diversidade de vozes e perspectivas enriquecerá o discurso global sobre a segurança da IA e expandirá a base geral de conhecimentos sobre IA.
Aumentando a segurança e a colaboração da IA
O Fundo de Segurança da IA concentra-se principalmente em reforçar o desenvolvimento de novas técnicas de avaliação e abordagens de red teaming para modelos de IA, com o objetivo de descobrir perigos potenciais. Red teaming é um processo estruturado para examinar sistemas de IA para identificar capacidades, resultados ou ameaças infraestruturais prejudiciais. O aumento do financiamento neste domínio poderia elevar os padrões de segurança e fornecer informações valiosas sobre a mitigação dos desafios colocados pelos sistemas de IA.
Além disso, o Fundo procurará propostas de investigação em breve e será gerido pelo Instituto Meridian com aconselhamento de um comité consultivo, incluindo especialistas independentes, profissionais de IA e especialistas em doações.
Um processo de divulgação responsável está em andamento, permitindo que os laboratórios de IA de fronteira compartilhem informações sobre vulnerabilidades e capacidades perigosas em modelos de IA de fronteira, juntamente com suas soluções. Algumas empresas do Fórum já identificaram tais questões no contexto da segurança nacional, servindo como estudos de caso para orientar outros laboratórios na implementação de procedimentos de divulgação responsável.
Olhando para o futuro, o Frontier Model Forum planeia estabelecer um Conselho Consultivo nos próximos meses, encarregado de orientar as suas prioridades estratégicas e de representar diversos conhecimentos e perspectivas. O Fórum lançará atualizações regularmente, incluindo a adição de novos membros. Simultaneamente, o AI Safety Fund lançará o seu primeiro convite à apresentação de propostas, com subvenções concedidas pouco depois. Além disso, o Fórum continuará a divulgar resultados técnicos à medida que estiverem disponíveis.
O objetivo geral do Fórum é colaborar com Chris Meserole e expandir o envolvimento com a comunidade de pesquisa mais ampla. Isto inclui parcerias com organizações como a Partnership on AI, MLCommons e outras ONGs líderes, entidades governamentais e organizações multinacionais. Juntos, visam aproveitar o potencial da IA, garantindo ao mesmo tempo o seu desenvolvimento e utilização seguros e éticos.
Aviso Legal
Em linha com a Diretrizes do Projeto Trust, observe que as informações fornecidas nesta página não se destinam e não devem ser interpretadas como aconselhamento jurídico, tributário, de investimento, financeiro ou qualquer outra forma. É importante investir apenas o que você pode perder e procurar aconselhamento financeiro independente se tiver alguma dúvida. Para mais informações, sugerimos consultar os termos e condições, bem como as páginas de ajuda e suporte fornecidas pelo emissor ou anunciante. MetaversePost está comprometida com relatórios precisos e imparciais, mas as condições de mercado estão sujeitas a alterações sem aviso prévio.
Sobre o autor
Agne é uma jornalista que cobre as últimas tendências e desenvolvimentos no metaverso, IA e Web3 indústrias para o Metaverse Post. Sua paixão por contar histórias a levou a realizar inúmeras entrevistas com especialistas nessas áreas, sempre buscando descobrir histórias emocionantes e envolventes. Agne é bacharel em literatura e possui ampla experiência em redação sobre uma ampla variedade de tópicos, incluindo viagens, arte e cultura. Ela também foi voluntária como editora da organização de direitos dos animais, onde ajudou a aumentar a conscientização sobre questões de bem-estar animal. Entre em contato com ela [email protected].
Mais artigos
Agne é uma jornalista que cobre as últimas tendências e desenvolvimentos no metaverso, IA e Web3 indústrias para o Metaverse Post. Sua paixão por contar histórias a levou a realizar inúmeras entrevistas com especialistas nessas áreas, sempre buscando descobrir histórias emocionantes e envolventes. Agne é bacharel em literatura e possui ampla experiência em redação sobre uma ampla variedade de tópicos, incluindo viagens, arte e cultura. Ela também foi voluntária como editora da organização de direitos dos animais, onde ajudou a aumentar a conscientização sobre questões de bem-estar animal. Entre em contato com ela [email protected].