Notizie Tecnologia
05 Giugno 2023

LLaMa con 7 miliardi di parametri raggiunge un'inferenza fulminea sul chip Apple M2 Max

In Breve

LLaMa il modello funziona a 40 token al secondo sul chip M2 Max, dimostrando un utilizzo della CPU dello 0%, accendendo l'immaginazione degli appassionati e degli utenti dell'IA.

I modelli di intelligenza artificiale possono essere personalizzati in base alle esigenze individuali ed eseguiti localmente su dispositivi personali, fornendo assistenza personalizzata e semplificando le attività di routine.

Un risultato rivoluzionario nel campo dell'intelligenza artificiale è stato svelato come il LLaMa modello con l’incredibile cifra di 7 miliardi di parametri ora funziona a una velocità impressionante di 40 token al secondo su un MacBook dotato del chip M2 Max all'avanguardia. Questa straordinaria impresa è stata resa possibile grazie a un recente aggiornamento del repository GIT di Greganov, che ha implementato con successo l'inferenza del modello su GPU in metallo, un acceleratore specializzato trovato negli ultimi chip di Apple.

LLaMa con 7 miliardi di parametri raggiunge un'inferenza fulminea sul chip Apple M2 Max
Crediti: Metaverse Post (mpost.io)
Consigliato: Guanaco emerge come potenziale open-source ChatGPT Concorrente

L'implementazione dell'inferenza del modello sulla GPU Metal ha prodotto risultati straordinari. Utilizzando questo hardware speciale, il LLaMa Il modello dimostra un sorprendente utilizzo della CPU pari allo 0%, sfruttando efficacemente la potenza di elaborazione di tutti i 38 core Metal. Questo risultato non solo mette in mostra le capacità del modello, ma evidenzia anche l’eccezionale abilità e competenza di Greganov come straordinario ingegnere.

Le implicazioni di questo sviluppo sono di vasta portata e accendono l’immaginazione sia degli appassionati che degli utenti dell’intelligenza artificiale. Con personalizzato LLaMa modelli eseguiti localmente, le attività di routine potrebbero essere gestite senza sforzo dai singoli individui, inaugurando una nuova era di modularizzazione. Il concetto ruota attorno a modello massiccio addestrato centralmente, che viene poi messo a punto e personalizzato da ciascun utente sui propri dati personali, risultando in un assistente AI altamente personalizzato ed efficiente.

La visione di avere un servizio personalizzato LLaMa Il modello che assiste le persone nelle questioni quotidiane ha un potenziale immenso. Localizzando il modello sui dispositivi personali, gli utenti possono sperimentare i vantaggi di una potente intelligenza artificiale mantenendo il controllo sui propri dati. Questa localizzazione garantisce anche tempi di risposta rapidi, consentendo interazioni rapide e senza soluzione di continuità con l'assistente AI.

La combinazione di enormi dimensioni del modello e inferenza efficiente su hardware specializzato apre la strada a un futuro in cui l'IA diventa parte integrante della vita delle persone, fornendo assistenza personalizzata e semplificando le attività di routine.

Progressi come questi ci avvicinano alla realizzazione di un mondo in cui i modelli di intelligenza artificiale possono essere adattati alle esigenze individuali ed eseguiti localmente su dispositivi personali. Con ogni utente che ha la possibilità di perfezionare e ottimizzare i propri LLaMa modello basato sui loro dati univoci, il potenziale di efficienza e produttività guidate dall’intelligenza artificiale è illimitato.

I risultati testimoniati nel LLaMa le prestazioni del modello sul chip Apple M2 Max ne sono una prova rapidi progressi in fase di ricerca e sviluppo dell'IA. Con ingegneri dedicati come Greganov che spingono i confini di ciò che è possibile, il futuro promette soluzioni personalizzate, efficienti e gestite localmente Modelli di intelligenza artificiale che trasformeranno la strada interagiamo con la tecnologia.

Per saperne di più sull'intelligenza artificiale:

Negazione di responsabilità

In linea con la Linee guida del progetto Trust, si prega di notare che le informazioni fornite in questa pagina non intendono essere e non devono essere interpretate come consulenza legale, fiscale, di investimento, finanziaria o di qualsiasi altra forma. È importante investire solo ciò che puoi permetterti di perdere e chiedere una consulenza finanziaria indipendente in caso di dubbi. Per ulteriori informazioni, suggeriamo di fare riferimento ai termini e alle condizioni nonché alle pagine di aiuto e supporto fornite dall'emittente o dall'inserzionista. MetaversePost si impegna a fornire report accurati e imparziali, ma le condizioni di mercato sono soggette a modifiche senza preavviso.

Circa l'autore

Damir è il team leader, il product manager e l'editore di Metaverse Post, che copre argomenti come AI/ML, AGI, LLM, Metaverse e Web3campi correlati. I suoi articoli attirano un vasto pubblico di oltre un milione di utenti ogni mese. Sembra essere un esperto con 10 anni di esperienza in SEO e marketing digitale. Damir è stato menzionato in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e altre pubblicazioni. Viaggia tra Emirati Arabi Uniti, Turchia, Russia e CSI come nomade digitale. Damir ha conseguito una laurea in fisica, che secondo lui gli ha fornito le capacità di pensiero critico necessarie per avere successo nel panorama in continua evoluzione di Internet. 

Altri articoli
Damir Jalalov
Damir Jalalov

Damir è il team leader, il product manager e l'editore di Metaverse Post, che copre argomenti come AI/ML, AGI, LLM, Metaverse e Web3campi correlati. I suoi articoli attirano un vasto pubblico di oltre un milione di utenti ogni mese. Sembra essere un esperto con 10 anni di esperienza in SEO e marketing digitale. Damir è stato menzionato in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e altre pubblicazioni. Viaggia tra Emirati Arabi Uniti, Turchia, Russia e CSI come nomade digitale. Damir ha conseguito una laurea in fisica, che secondo lui gli ha fornito le capacità di pensiero critico necessarie per avere successo nel panorama in continua evoluzione di Internet. 

Cresce l’appetito istituzionale verso gli ETF Bitcoin in un contesto di volatilità

Le informazioni fornite tramite la documentazione 13F rivelano importanti investitori istituzionali che si dilettano negli ETF Bitcoin, sottolineando una crescente accettazione di...

Per saperne di più

Arriva il giorno della sentenza: il destino di CZ è in bilico mentre la Corte degli Stati Uniti considera l'appello del Dipartimento di Giustizia

Changpeng Zhao è pronto ad affrontare oggi la sentenza in un tribunale americano a Seattle.

Per saperne di più
Unisciti alla nostra comunità tecnologica innovativa
Scopri di più
Per saperne di più
Morph presenta il suo testnet Holesky con l'integrazione ottimistica di zkEVM, meccanismo bridge e funzionalità di rete sequenziatore decentralizzato
Notizie Tecnologia
Morph presenta il suo testnet Holesky con l'integrazione ottimistica di zkEVM, meccanismo bridge e funzionalità di rete sequenziatore decentralizzato
6 Maggio 2024
Robinhood Crypto riceve un avviso dalla Securities and Exchange Commission per presunte violazioni dei titoli
Mercati Notizie Tecnologia
Robinhood Crypto riceve un avviso dalla Securities and Exchange Commission per presunte violazioni dei titoli
6 Maggio 2024
QuickSwap si distribuisce sulla rete principale X Layer ed espande la rete Polygon CDK con il lancio di Citadel
Notizie Tecnologia
QuickSwap si distribuisce sulla rete principale X Layer ed espande la rete Polygon CDK con il lancio di Citadel 
6 Maggio 2024
Layer 2 Network Linea avvia la richiesta di token ZERO di ZeroLend Airdrop Utenti e investitori
Mercati Notizie Tecnologia
Layer 2 Network Linea avvia la richiesta di token ZERO di ZeroLend Airdrop Utenti e investitori
6 Maggio 2024
LABORATORI DI CRITTOMERIA PTE. srl.