Rapport de nouvelles Technologie
Le 05 juin 2023

LLaMa avec 7 milliards de paramètres, permet une inférence ultra-rapide sur la puce Apple M2 Max

En bref

LLaMa Le modèle fonctionne à 40 jetons par seconde sur la puce M2 Max, démontrant une utilisation du processeur de 0 %, enflammant l'imagination des passionnés d'IA et des utilisateurs.

Les modèles d'IA peuvent être adaptés aux besoins individuels et exécutés localement sur des appareils personnels, fournissant une assistance personnalisée et rationalisant les tâches de routine.

Une réalisation révolutionnaire dans le domaine de l'IA a été dévoilée alors que LLaMa modèle avec 7 milliards de paramètres étonnants fonctionne désormais à une vitesse impressionnante de 40 jetons par seconde sur un MacBook équipé de la puce M2 Max de pointe. Cet exploit remarquable a été rendu possible grâce à une récente mise à jour du référentiel GIT par Gréganov, qui a mis en œuvre avec succès l'inférence de modèle sur GPU métallique, un accélérateur spécialisé présent dans les dernières puces d'Apple.

LLaMa avec 7 milliards de paramètres, permet une inférence ultra-rapide sur la puce Apple M2 Max
Crédit: Metaverse Post (mpost.io)
Recommandé: Guanaco apparaît comme une source ouverte potentielle ChatGPT Fabricant

La mise en œuvre de l'inférence de modèle sur le GPU Metal a donné des résultats extraordinaires. Grâce à ce matériel spécial, le LLaMa Le modèle démontre une utilisation étonnante du processeur de 0 %, exploitant efficacement la puissance de traitement des 38 cœurs Metal. Cette réalisation met non seulement en valeur les capacités du modèle, mais met également en valeur les compétences et l'expertise exceptionnelles de Greganov en tant qu'ingénieur remarquable.

Les implications de ce développement sont considérables et enflamment l’imagination des passionnés d’IA et des utilisateurs. Avec personnalisé LLaMa modèles fonctionnant localement, les tâches de routine pourraient être gérées sans effort par des individus, ouvrant la voie à une nouvelle ère de modularisation. Le concept s'articule autour d'un modèle massif formé de manière centralisée, qui est ensuite affinée et personnalisée par chaque utilisateur sur ses données personnelles, résultant en un assistant IA hautement personnalisé et efficace.

La vision d’avoir un personnalisé LLaMa Le modèle qui aide les individus dans leurs tâches quotidiennes recèle un immense potentiel. En localisant le modèle sur des appareils personnels, les utilisateurs peuvent bénéficier des avantages d'une IA puissante tout en garder le contrôle sur leurs données. Cette localisation garantit également des temps de réponse rapides, permettant des interactions rapides et transparentes avec l'assistant IA.

La combinaison de tailles de modèles massives et d'une inférence efficace sur du matériel spécialisé ouvre la voie à un avenir où l'IA fera partie intégrante de la vie des gens, fournissant une assistance personnalisée et rationalisant les tâches de routine.

De tels progrès nous rapprochent de la réalisation d’un monde dans lequel les modèles d’IA peuvent être adaptés aux besoins individuels et exécutés localement sur des appareils personnels. Chaque utilisateur ayant la possibilité d'affiner et d'optimiser son LLaMa modèle basé sur leurs données uniques, le potentiel d’efficacité et de productivité basée sur l’IA est illimité.

Les réalisations constatées dans le LLaMa Les performances du modèle sur la puce Apple M2 Max témoignent de la des progrès rapides fait dans la recherche et le développement de l'IA. Avec des ingénieurs dévoués comme Greganov repoussant les limites de ce qui est possible, l'avenir est prometteur pour des solutions personnalisées, efficaces et gérées localement. Des modèles d'IA qui transformeront la façon dont nous interagissons avec la technologie.

En savoir plus sur l'IA :

Clause de non-responsabilité 

En ligne avec la Lignes directrices du projet de confiance, veuillez noter que les informations fournies sur cette page ne sont pas destinées à être et ne doivent pas être interprétées comme des conseils juridiques, fiscaux, d'investissement, financiers ou toute autre forme de conseil. Il est important d’investir uniquement ce que vous pouvez vous permettre de perdre et de demander des conseils financiers indépendants en cas de doute. Pour plus d'informations, nous vous suggérons de vous référer aux conditions générales ainsi qu'aux pages d'aide et de support mises à disposition par l'émetteur ou l'annonceur. MetaversePost s'engage à fournir des rapports précis et impartiaux, mais les conditions du marché sont susceptibles de changer sans préavis.

A propos de l'auteur

Damir est chef d'équipe, chef de produit et rédacteur en chef chez Metaverse Post, couvrant des sujets tels que l'IA/ML, l'AGI, les LLM, le métaverse et Web3-domaines connexes. Ses articles attirent une audience massive de plus d'un million d'utilisateurs chaque mois. Il semble être un expert avec 10 ans d'expérience dans le référencement et le marketing numérique. Damir a été mentionné dans Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto et d'autres publications. Il voyage entre les Émirats arabes unis, la Turquie, la Russie et la CEI en tant que nomade numérique. Damir a obtenu un baccalauréat en physique, ce qui, selon lui, lui a donné les compétences de pensée critique nécessaires pour réussir dans le paysage en constante évolution d'Internet. 

Plus d'articles
Damir Yalalov
Damir Yalalov

Damir est chef d'équipe, chef de produit et rédacteur en chef chez Metaverse Post, couvrant des sujets tels que l'IA/ML, l'AGI, les LLM, le métaverse et Web3-domaines connexes. Ses articles attirent une audience massive de plus d'un million d'utilisateurs chaque mois. Il semble être un expert avec 10 ans d'expérience dans le référencement et le marketing numérique. Damir a été mentionné dans Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto et d'autres publications. Il voyage entre les Émirats arabes unis, la Turquie, la Russie et la CEI en tant que nomade numérique. Damir a obtenu un baccalauréat en physique, ce qui, selon lui, lui a donné les compétences de pensée critique nécessaires pour réussir dans le paysage en constante évolution d'Internet. 

L’appétit institutionnel augmente pour les ETF Bitcoin dans un contexte de volatilité

Les divulgations via les dépôts 13F révèlent que des investisseurs institutionnels notables se sont lancés dans les ETF Bitcoin, soulignant une acceptation croissante de...

En savoir plus

Le jour de la détermination de la peine arrive : le sort de CZ est en jeu alors que le tribunal américain examine le plaidoyer du DOJ

Changpeng Zhao est sur le point d'être condamné aujourd'hui par un tribunal américain à Seattle.

En savoir plus
Rejoignez notre communauté technologique innovante
En savoir plus
En savoir plus
Injective s'associe à AltLayer pour apporter la restauration de la sécurité à inEVM
La Brochure Rapport de nouvelles Technologie
Injective s'associe à AltLayer pour apporter la restauration de la sécurité à inEVM
3 mai 2024
Masa s'associe à Teller pour présenter le pool de prêts MASA et permettre à l'USDC d'emprunter sur la base
Marchés Rapport de nouvelles Technologie
Masa s'associe à Teller pour présenter le pool de prêts MASA et permettre à l'USDC d'emprunter sur la base
3 mai 2024
Velodrome lance la version bêta de Superchain dans les semaines à venir et s'étend aux blockchains OP Stack Layer 2
Marchés Rapport de nouvelles Technologie
Velodrome lance la version bêta de Superchain dans les semaines à venir et s'étend aux blockchains OP Stack Layer 2
3 mai 2024
CARV annonce un partenariat avec Aethir pour décentraliser sa couche de données et distribuer des récompenses
La Brochure Rapport de nouvelles Technologie
CARV annonce un partenariat avec Aethir pour décentraliser sa couche de données et distribuer des récompenses
3 mai 2024
CRYPTOMERIA LABS PTE. LTD.