Meta apresenta o Segment Anything, seu novo modelo de IA para segmentação de imagens
Em Breve
A Meta introduziu o Segment Anything, seu novo modelo básico para segmentação de imagens.
A empresa está abrindo o código de dois grandes conjuntos de dados usados para treinar o modelo de IA.
A Meta diz que o Segment Anything pode se tornar um componente em sistemas de IA maiores para compreensão do conteúdo visual e do texto de uma página da web.
A Meta introduziu o Segment Anything, seu novo modelo básico para segmentação de imagens. O processo de identificar quais pixels da imagem pertencem a um objeto é uma tarefa crucial na visão computacional e é usado em uma variedade de aplicações, desde a análise de imagens científicas até a edição de fotos.
Em sua introdução no blog, a empresa definiu o cenário dizendo que a criação de modelos de segmentação precisos para tarefas específicas em visão computacional geralmente exigia trabalho especializado de especialistas técnicos com acesso à infraestrutura de treinamento de IA e grandes volumes de dados no domínio cuidadosamente anotados.
No entanto, isso pode mudar em breve com o projeto Segment Anything, pois espera-se que seu novo conjunto de dados e modelo tornem os modelos de segmentação precisos mais acessíveis a um público mais amplo, eliminando a necessidade de conhecimento técnico especializado e infraestrutura. Para conseguir isso, os pesquisadores construíram um modelo promptable que é treinado em diversos dados e pode se adaptar a tarefas específicas, semelhante a como o prompting é usado em modelos de processamento de linguagem natural ou chatbots.
Para democratizar ainda mais a segmentação, a Meta está disponibilizando o enorme conjunto de dados SA-1B para fins de pesquisa, e o Segment Anything Model está disponível sob uma licença aberta permissiva (Apache 2.0). Além disso, a empresa desenvolveu um demonstração que permite aos usuários experimentar o SAM com suas próprias imagens.
A Meta vê possíveis casos de uso para o SAM nos domínios de AI, AR/VR e criadores. O SAM tem o potencial de se tornar um elemento crítico em sistemas de IA maiores que visam alcançar uma compreensão multimodal mais geral do mundo. Por exemplo, pode facilitar a compreensão do conteúdo visual e textual em uma página da web.
Além disso, no domínio AR/VR, o SAM pode permitir a seleção de objetos com base no olhar do usuário e permitir que o objeto seja “levantado” em 3D. Além disso, os criadores de conteúdo podem usar o SAM para aprimorar aplicativos criativos, como extrair regiões de imagens para colagens ou edição de vídeo.
A Meta tem aumentado seus esforços de IA em meio ao boom de IA generativa e ao declínio do interesse no metaverso. Apesar da aposta de US$ 70 bilhões da empresa no metaverso, sua divisão de metaverso, Reality Labs, teve um prejuízo de US$ 13.7 bilhões no ano passado. Recentemente, a Meta também encerrou seu NFT operações no Facebook e Instagram.
Em uma entrevista com Nikkei Asia na quarta-feira, Meta CTO Chris Bosworth disse que os principais executivos da Meta têm passado a maior parte do tempo em IA. CEO da Meta, Mark Zuckerberg anunciou em fevereiro, um novo grupo de produtos focado em IA generativa após liberação seu novo modelo de linguagem grande chamado LLaMA (Meta AI de modelo de linguagem grande).
A empresa deve lançar alguns aplicativos de IA para criação de anúncios este ano, disse Bosworth ao Nikkei.
Leia mais:
Aviso Legal
Em linha com a Diretrizes do Projeto Trust, observe que as informações fornecidas nesta página não se destinam e não devem ser interpretadas como aconselhamento jurídico, tributário, de investimento, financeiro ou qualquer outra forma. É importante investir apenas o que você pode perder e procurar aconselhamento financeiro independente se tiver alguma dúvida. Para mais informações, sugerimos consultar os termos e condições, bem como as páginas de ajuda e suporte fornecidas pelo emissor ou anunciante. MetaversePost está comprometida com relatórios precisos e imparciais, mas as condições de mercado estão sujeitas a alterações sem aviso prévio.
Sobre o autor
Cindy é jornalista da Metaverse Post, abordando temas relacionados web3, NFT, metaverso e IA, com foco em entrevistas com Web3 players da indústria. Ela conversou com mais de 30 executivos de nível C e continua aumentando, trazendo seus valiosos insights aos leitores. Originária de Cingapura, Cindy agora mora em Tbilisi, na Geórgia. Ela é bacharel em Estudos de Comunicação e Mídia pela University of South Australia e tem uma década de experiência em jornalismo e redação. Entre em contato com ela através [email protegido] com arremessos de imprensa, anúncios e oportunidades de entrevista.
Mais artigosCindy é jornalista da Metaverse Post, abordando temas relacionados web3, NFT, metaverso e IA, com foco em entrevistas com Web3 players da indústria. Ela conversou com mais de 30 executivos de nível C e continua aumentando, trazendo seus valiosos insights aos leitores. Originária de Cingapura, Cindy agora mora em Tbilisi, na Geórgia. Ela é bacharel em Estudos de Comunicação e Mídia pela University of South Australia e tem uma década de experiência em jornalismo e redação. Entre em contato com ela através [email protegido] com arremessos de imprensa, anúncios e oportunidades de entrevista.