Meta presenta Segment Anything, il suo nuovo modello AI per la segmentazione delle immagini
In Breve
Meta ha introdotto Segment Anything, il suo nuovo modello di base per la segmentazione delle immagini.
L'azienda sta rendendo open source due grandi set di dati utilizzati per addestrare il modello di intelligenza artificiale.
Meta afferma che Segment Anything potrebbe diventare un componente in sistemi di intelligenza artificiale più grandi per comprendere sia il contenuto visivo che quello testuale di una pagina web.
Meta ha introdotto Segment Anything, il suo nuovo modello di base per la segmentazione delle immagini. Il processo di identificazione dei pixel dell'immagine che appartengono a un oggetto è un compito cruciale nella visione artificiale e viene utilizzato in una varietà di applicazioni, dall'analisi di immagini scientifiche all'editing di foto.
Nella sua introduzione post sul blog, la società ha definito la scena affermando che la creazione di modelli di segmentazione accurati per attività specifiche nella visione artificiale ha in genere richiesto un lavoro specializzato da parte di esperti tecnici con accesso all'infrastruttura di formazione dell'IA e grandi volumi di dati interni accuratamente annotati.
Tuttavia, questo potrebbe presto cambiare con il progetto Segment Anything poiché si prevede che il suo nuovo set di dati e modello renderà i modelli di segmentazione accurati più accessibili a un pubblico più ampio, eliminando la necessità di competenze e infrastrutture tecniche specializzate. Per raggiungere questo obiettivo, i ricercatori hanno creato un modello promptable addestrato su dati diversi e in grado di adattarsi a compiti specifici, in modo simile a come viene utilizzato il prompting nei modelli di elaborazione del linguaggio naturale o nei chatbot.
Per democratizzare ulteriormente la segmentazione, Meta sta rendendo disponibile l'enorme set di dati SA-1B per scopi di ricerca e il modello Segment Anything è disponibile con una licenza aperta permissiva (Apache 2.0). Inoltre, l'azienda ha sviluppato un dimostrazione che consente agli utenti di provare SAM con le proprie immagini.
Meta vede potenziali casi d'uso per il SAM nei domini AI, AR/VR e creator. SAM ha il potenziale per diventare un elemento critico in sistemi di intelligenza artificiale più grandi che mirano a raggiungere una comprensione multimodale più generale del mondo. Ad esempio, può facilitare la comprensione del contenuto sia visivo che testuale su una pagina web.
Inoltre, nel dominio AR/VR, SAM potrebbe abilitare la selezione degli oggetti in base allo sguardo dell'utente e consentire all'oggetto di essere "sollevato" in 3D. Inoltre, i creatori di contenuti possono utilizzare SAM per migliorare applicazioni creative come l'estrazione di regioni di immagini per collage o editing video.
Meta ha intensificato i suoi sforzi di intelligenza artificiale tra il boom generativo dell'IA e il calo dell'interesse per il metaverso. Nonostante la scommessa da 70 miliardi di dollari dell'azienda sul metaverso, la sua divisione del metaverso Reality Labs ha registrato una perdita di 13.7 miliardi di dollari l'anno scorso. Di recente, anche Meta ha tramontato il suo NFT operazioni su Facebook e Instagram.
In un'intervista con Nikkei asiatico mercoledì, il CTO di Meta Chris Bosworth ha affermato che i massimi dirigenti di Meta hanno dedicato la maggior parte del loro tempo all'intelligenza artificiale. Mark Zuckerberg, amministratore delegato di Meta ha annunciato a febbraio un nuovo gruppo di prodotti si è concentrato sull'IA generativa dopo rilascio il suo nuovo modello linguistico di grandi dimensioni chiamato LLaMA (Meta AI del modello linguistico di grandi dimensioni).
La società dovrebbe presentare quest'anno alcune applicazioni AI per la creazione di pubblicità, ha detto Bosworth a Nikkei.
Leggi di più:
Negazione di responsabilità
In linea con la Linee guida del progetto Trust, si prega di notare che le informazioni fornite in questa pagina non intendono essere e non devono essere interpretate come consulenza legale, fiscale, di investimento, finanziaria o di qualsiasi altra forma. È importante investire solo ciò che puoi permetterti di perdere e chiedere una consulenza finanziaria indipendente in caso di dubbi. Per ulteriori informazioni, suggeriamo di fare riferimento ai termini e alle condizioni nonché alle pagine di aiuto e supporto fornite dall'emittente o dall'inserzionista. MetaversePost si impegna a fornire report accurati e imparziali, ma le condizioni di mercato sono soggette a modifiche senza preavviso.
Circa l'autore
Cindy è una giornalista di Metaverse Post, che copre argomenti relativi a web3, NFT, metaverso e intelligenza artificiale, con particolare attenzione alle interviste con Web3 attori del settore. Ha parlato con oltre 30 dirigenti di livello C e oltre, portando ai lettori le loro preziose intuizioni. Originaria di Singapore, Cindy ora vive a Tbilisi, in Georgia. Ha conseguito una laurea in comunicazioni e studi sui media presso l'Università dell'Australia Meridionale e ha dieci anni di esperienza nel giornalismo e nella scrittura. Mettiti in contatto con lei tramite [email protected] con presentazioni per la stampa, annunci e opportunità di interviste.
Altri articoliCindy è una giornalista di Metaverse Post, che copre argomenti relativi a web3, NFT, metaverso e intelligenza artificiale, con particolare attenzione alle interviste con Web3 attori del settore. Ha parlato con oltre 30 dirigenti di livello C e oltre, portando ai lettori le loro preziose intuizioni. Originaria di Singapore, Cindy ora vive a Tbilisi, in Georgia. Ha conseguito una laurea in comunicazioni e studi sui media presso l'Università dell'Australia Meridionale e ha dieci anni di esperienza nel giornalismo e nella scrittura. Mettiti in contatto con lei tramite [email protected] con presentazioni per la stampa, annunci e opportunità di interviste.