Informe de noticias Tecnología
Sábado, Junio 05, 2023

LLaMa con 7 mil millones de parámetros logra una inferencia ultrarrápida en el chip Apple M2 Max

En Resumen

LLaMa El modelo funciona a 40 tokens por segundo en el chip M2 Max, lo que demuestra una utilización de CPU del 0%, lo que enciende la imaginación de los entusiastas y usuarios de la IA.

Los modelos de IA pueden adaptarse a las necesidades individuales y ejecutarse localmente en dispositivos personales, brindando asistencia personalizada y agilizando las tareas rutinarias.

Se ha presentado un logro innovador en el campo de la IA como el LLaMa modelo con la asombrosa cantidad de 7 mil millones de parámetros ahora funciona a una velocidad impresionante de 40 tokens por segundo en una MacBook equipada con el chip M2 Max de última generación. Esta hazaña notable fue posible gracias a una actualización reciente del repositorio GIT por greganov, quien implementó con éxito la inferencia del modelo en el GPU de metal, un acelerador especializado que se encuentra en los últimos chips de Apple.

LLaMa con 7 mil millones de parámetros logra una inferencia ultrarrápida en el chip Apple M2 Max
Créditos: Metaverse Post (mpost.io)
Recomendado: Guanaco surge como potencial fuente abierta ChatGPT Fabricante

La implementación de la inferencia de modelos en la GPU Metal ha arrojado resultados extraordinarios. Utilizando este hardware especial, el LLaMa El modelo demuestra una sorprendente utilización del 0% de la CPU, aprovechando eficazmente la potencia de procesamiento de los 38 núcleos Metal. Este logro no sólo muestra las capacidades del modelo sino que también resalta la habilidad y experiencia excepcionales de Greganov como un ingeniero notable.

Las implicaciones de este desarrollo son de gran alcance y encienden la imaginación tanto de los entusiastas como de los usuarios de la IA. Con personalizado LLaMa En los modelos que se ejecutan localmente, las tareas rutinarias podrían ser gestionadas sin esfuerzo por individuos, marcando el comienzo de una nueva era de modularización. El concepto gira en torno a un modelo masivo entrenado centralmente, que luego es ajustado y personalizado por cada usuario en sus datos personales, lo que da como resultado un asistente de IA altamente personalizado y eficiente.

La visión de tener un trato personalizado. LLaMa El modelo que ayuda a las personas con los asuntos cotidianos tiene un inmenso potencial. Al localizar el modelo en dispositivos personales, los usuarios pueden experimentar los beneficios de una poderosa IA mientras mantener el control sobre sus datos. Esta localización también garantiza tiempos de respuesta rápidos, lo que permite interacciones rápidas y fluidas con el asistente de IA.

La combinación de tamaños de modelos masivos y la inferencia eficiente en hardware especializado allana el camino para un futuro en el que la IA se convierte en una parte integral de la vida de las personas, proporcionando asistencia personalizada y agilizando las tareas rutinarias.

Avances como estos nos acercan a la realización de un mundo en el que los modelos de IA puedan adaptarse a las necesidades individuales y ejecutarse localmente en dispositivos personales. Cada usuario tiene la capacidad de refinar y optimizar su LLaMa modelo basado en sus datos únicos, el potencial de eficiencia y productividad impulsadas por la IA es ilimitado.

Los logros presenciados en el LLaMa El rendimiento del modelo en el chip Apple M2 Max sirve como testimonio de la progreso rápido que se está haciendo en investigación y desarrollo de IA. Con ingenieros dedicados como Greganov que superan los límites de lo que es posible, el futuro promete soluciones personalizadas, eficientes y administradas localmente. Modelos de IA que transformarán el camino interactuamos con la tecnología.

Lea más sobre la IA:

Observación

En línea con la Directrices del Proyecto Confianza, tenga en cuenta que la información proporcionada en esta página no pretende ser ni debe interpretarse como asesoramiento legal, fiscal, de inversión, financiero o de cualquier otro tipo. Es importante invertir sólo lo que pueda permitirse perder y buscar asesoramiento financiero independiente si tiene alguna duda. Para mayor información sugerimos consultar los términos y condiciones así como las páginas de ayuda y soporte proporcionadas por el emisor o anunciante. MetaversePost se compromete a brindar informes precisos e imparciales, pero las condiciones del mercado están sujetas a cambios sin previo aviso.

Sobre el Autor

Damir es el líder del equipo, gerente de producto y editor en Metaverse Post, que cubre temas como AI/ML, AGI, LLM, Metaverse y Web3-campos relacionados. Sus artículos atraen una audiencia masiva de más de un millón de usuarios cada mes. Parece ser un experto con 10 años de experiencia en SEO y marketing digital. Damir ha sido mencionado en Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto y otras publicaciones. Viaja entre los Emiratos Árabes Unidos, Turquía, Rusia y la CEI como nómada digital. Damir obtuvo una licenciatura en física, que él cree que le ha dado las habilidades de pensamiento crítico necesarias para tener éxito en el panorama siempre cambiante de Internet. 

Más artículos
Damir Yalalov
Damir Yalalov

Damir es el líder del equipo, gerente de producto y editor en Metaverse Post, que cubre temas como AI/ML, AGI, LLM, Metaverse y Web3-campos relacionados. Sus artículos atraen una audiencia masiva de más de un millón de usuarios cada mes. Parece ser un experto con 10 años de experiencia en SEO y marketing digital. Damir ha sido mencionado en Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto y otras publicaciones. Viaja entre los Emiratos Árabes Unidos, Turquía, Rusia y la CEI como nómada digital. Damir obtuvo una licenciatura en física, que él cree que le ha dado las habilidades de pensamiento crítico necesarias para tener éxito en el panorama siempre cambiante de Internet. 

Crece el apetito institucional por los ETF de Bitcoin en medio de la volatilidad

Las divulgaciones a través de presentaciones 13F revelan que notables inversores institucionales incursionan en los ETF de Bitcoin, lo que subraya una creciente aceptación de...

Para saber más

Llega el día de la sentencia: el destino de CZ pende de un hilo mientras un tribunal de EE. UU. considera la petición del Departamento de Justicia

Changpeng Zhao está listo para enfrentar hoy su sentencia en un tribunal estadounidense en Seattle.

Para saber más
Únase a nuestra comunidad tecnológica innovadora
Leer Más
Leer más
Injective une fuerzas con AltLayer para llevar la seguridad de recuperación a inEVM
Empresa Informe de noticias Tecnología
Injective une fuerzas con AltLayer para llevar la seguridad de recuperación a inEVM
3 de mayo de 2024
Masa se asocia con Teller para presentar el fondo de préstamos MASA y permite pedir prestado al USDC en base
Industrias Informe de noticias Tecnología
Masa se asocia con Teller para presentar el fondo de préstamos MASA y permite pedir prestado al USDC en base
3 de mayo de 2024
Velodrome lanza la versión Beta de Superchain en las próximas semanas y se expande a través de las cadenas de bloques OP Stack Layer 2
Industrias Informe de noticias Tecnología
Velodrome lanza la versión Beta de Superchain en las próximas semanas y se expande a través de las cadenas de bloques OP Stack Layer 2
3 de mayo de 2024
CARV anuncia asociación con Aethir para descentralizar su capa de datos y distribuir recompensas
Empresa Informe de noticias Tecnología
CARV anuncia asociación con Aethir para descentralizar su capa de datos y distribuir recompensas
3 de mayo de 2024
CRYPTOMERIA LABORATORIOS PTE. LIMITADO.