Nachrichtenbericht Technologie
18. Januar 2024

Deci und Qualcomm arbeiten zusammen, um generative KI branchenübergreifend zu demokratisieren

In Kürze

Deci kündigte eine Zusammenarbeit mit Qualcomm Technologies zur Entwicklung fortschrittlicher generativer KI-Modelle für die Qualcomm Cloud AI 100 an.

Deci und Qualcomm arbeiten zusammen, um generative KI branchenübergreifend zu demokratisieren

Das KI-Lösungsunternehmen Deci kündigte eine Zusammenarbeit mit Qualcomm Technologies zur Entwicklung fortschrittlicher Technologien an generative KI Modelle für die Qualcomm Cloud AI 100. Die Zusammenarbeit zielt darauf ab, KI für ein breiteres Spektrum von Anwendungen zugänglicher zu machen und die Leistungsfähigkeit generativer KI für Entwickler zu demokratisieren.

Durch maßgeschneiderte Modelle speziell für die Qualcomm Cloud AI 100-Lösung wollen die Unternehmen eine kostengünstige KI-Verarbeitung in Echtzeit ermöglichen. Cloud AI 100 ist die Lösung von Qualcomm, die darauf ausgelegt ist, die Leistung für generative KI-Inferenzen zu optimieren große Sprachmodelle (LLMs).

„Einige der größten Herausforderungen in der aktuellen generativen KI-Landschaft hängen mit der Verfügbarkeit von Rechenleistung für die Verarbeitung dieser riesigen Modelle und den enormen Kosten für deren Betrieb zusammen“, sagte Yonatan Geifman, CEO und Mitbegründer von Deci Metaverse Post. „Durch die Nutzung der Deci-Modelle können Qualcomm-Benutzer ihre Hardware-Investition optimal nutzen – mit Modellen, die eine maximale Hardware-Auslastung gewährleisten und gleichzeitig hohe Geschwindigkeit und Genauigkeit liefern.“

Deci wird mit Qualcomm Technologies zusammenarbeiten, um zwei Modelle auf den Markt zu bringen, nämlich DeciCoder-6B und DeciDiffusion 2.0.

Der Ankündigung zufolge handelt es sich bei DeciCoder-6B um ein 6-Milliarden-Parameter-Modell zur Codegenerierung, das acht Programmiersprachen unterstützt und etablierte Modelle übertrifft und gleichzeitig Speicher und Recheneffizienz beibehält.

Andererseits ist DeciDiffusion 2.0 ein Text-zu-Bild-Diffusionsmodell mit 732 Millionen Parametern, das neue Maßstäbe setzt, indem es qualitativ hochwertige Bilder mit erhöhter Geschwindigkeit und Effizienz liefert.

Was die KI-Modelle von Deci auszeichnet

Beim Benutzen LLMs In realen Anwendungen ist es entscheidend, Daten auf den Servern, die Vorhersagen treffen, effizient zu organisieren. Das Hauptziel besteht darin, möglichst viele Benutzeranfragen gleichzeitig zu bearbeiten. Das Finden des richtigen Gleichgewichts zwischen der Menge der gleichzeitig verarbeiteten Daten (Stapelgröße) und der Zeit, die benötigt wird, um eine Antwort zu erhalten (Latenz), hängt von zwei wichtigen Dingen ab: dem Design des Modells und den Fähigkeiten der Hardware, die für die Erstellung von Vorhersagen verwendet wird.

„DeciCoder-6B hat eine geringere Parameteranzahl als seine Gegenstücke, was zu einem geringeren Speicherbedarf führt und im Vergleich zu CodeGen 2 2.5B- und 7-Milliarden-Parametermodellen zusätzliche 7 GB Speicher freisetzt. Das Modell zeichnet sich durch Speicher- und Recheneffizienz aus und ermöglicht eine effektive Skalierung der Stapelverarbeitung ohne erheblichen Speicherverbrauch oder nennenswerte Erhöhung der Latenz“, sagte Yonatan Geifman, CEO von Deci.

Er erklärte weiter: „DeciDiffusion 2.0 liefert qualitativ hochwertige Bilder in 40 % weniger Iterationen und verwendet im Vergleich zu eine kleinere und schnellere U-Net-Komponente Stable Diffusion 1.5. Es kann qualitativ hochwertige Bilder mit weniger Diffusionszeitschritten während des Inferenzprozesses erzeugen.“

Das Modell reduziert effektiv die Anzahl der Schritte, die zur Erzeugung eines Qualitätsbildes erforderlich sind, von 16 auf nur 10.

Decis Suchtechnologie für neuronale Architektur – AutoNAC – hat eine entscheidende Rolle bei der Effizienz und Skalierbarkeit der Modelle gespielt. Es Automatisches Erfassen: den Suchprozess auf recheneffiziente Weise und unterscheidet ihn von herkömmlichen Methoden. Diese Technologie ermöglichte es Deci, innerhalb kurzer Zeit eine Reihe hochmoderner Modelle zu veröffentlichen, wobei im Vergleich zu anderen großen Entwicklern von Sprachmodellen geringere Rechenausgaben für die Schulung erforderlich waren.

DeciCoder-6B: Maßgeschneiderte Präzision für industrielle Exzellenz

Die Fähigkeit des DeciCoder-6B, acht Programmiersprachen zu unterstützen, macht ihn zu einem Modell der Wahl für eine Vielzahl von Anwendungen. Geifman erläuterte einige der vielfältigen Möglichkeiten, wie das Modell genutzt werden kann.

„Im Bereich der Softwareentwicklung kann es bei der Codegenerierung und Codevervollständigung helfen, wodurch die Entwicklungszeit erheblich verkürzt und die Produktivität gesteigert wird. Darüber hinaus kann DeciCoder-6B für den Programmierunterricht verwendet werden, der eine Vielzahl von Sprachen und Schwierigkeitsgraden abdeckt. Studenten können es zur Überprüfung ihrer Arbeit und als Lösungshandbuch verwenden“, sagte Geifman von Deci Metaverse Post.

„Darüber hinaus kann das Modell im Bereich der Cybersicherheit verfeinert werden, um das Schreiben und Analysieren von Skripten für das Scannen von Schwachstellen zu unterstützen und die Möglichkeit zu bieten, Sicherheitsüberprüfungen in verschiedenen Programmierumgebungen zu automatisieren“, fügte er hinzu.

Die Zusammenarbeit zwischen Deci und Qualcomm Technologien stellen einen bedeutenden Schritt zur Demokratisierung der Leistungsfähigkeit der generativen KI dar. Mit optimierten Modellen, effizienter Technologie und einem Engagement für Offenheit zielt die Partnerschaft darauf ab, Entwicklern und Branchen weltweit zugängliche und kostengünstige KI-Lösungen zur Verfügung zu stellen.

Haftungsausschluss

Im Einklang mit der Richtlinien des Trust-ProjektsBitte beachten Sie, dass die auf dieser Seite bereitgestellten Informationen nicht als Rechts-, Steuer-, Anlage-, Finanz- oder sonstige Beratung gedacht sind und nicht als solche interpretiert werden sollten. Es ist wichtig, nur so viel zu investieren, wie Sie sich leisten können, zu verlieren, und im Zweifelsfall eine unabhängige Finanzberatung einzuholen. Für weitere Informationen empfehlen wir einen Blick auf die Allgemeinen Geschäftsbedingungen sowie die Hilfe- und Supportseiten des Herausgebers oder Werbetreibenden. MetaversePost ist einer genauen, unvoreingenommenen Berichterstattung verpflichtet, die Marktbedingungen können sich jedoch ohne Vorankündigung ändern.

Über den Autor

Kumar ist ein erfahrener Technologiejournalist mit Spezialisierung auf die dynamischen Schnittstellen von KI/ML, Marketingtechnologie und aufstrebenden Bereichen wie Krypto, Blockchain und NFTS. Mit über drei Jahren Erfahrung in der Branche hat Kumar eine nachgewiesene Erfolgsbilanz bei der Erstellung überzeugender Erzählungen, der Durchführung aufschlussreicher Interviews und der Bereitstellung umfassender Erkenntnisse. Kumars Fachwissen liegt in der Produktion von wirkungsvollen Inhalten, darunter Artikeln, Berichten und Forschungspublikationen für prominente Branchenplattformen. Mit seinen einzigartigen Fähigkeiten, die technisches Wissen und Geschichtenerzählen kombinieren, zeichnet sich Kumar dadurch aus, dass er komplexe technologische Konzepte einem unterschiedlichen Publikum auf klare und ansprechende Weise vermittelt.

Weitere Artikel
Kumar Gandharv
Kumar Gandharv

Kumar ist ein erfahrener Technologiejournalist mit Spezialisierung auf die dynamischen Schnittstellen von KI/ML, Marketingtechnologie und aufstrebenden Bereichen wie Krypto, Blockchain und NFTS. Mit über drei Jahren Erfahrung in der Branche hat Kumar eine nachgewiesene Erfolgsbilanz bei der Erstellung überzeugender Erzählungen, der Durchführung aufschlussreicher Interviews und der Bereitstellung umfassender Erkenntnisse. Kumars Fachwissen liegt in der Produktion von wirkungsvollen Inhalten, darunter Artikeln, Berichten und Forschungspublikationen für prominente Branchenplattformen. Mit seinen einzigartigen Fähigkeiten, die technisches Wissen und Geschichtenerzählen kombinieren, zeichnet sich Kumar dadurch aus, dass er komplexe technologische Konzepte einem unterschiedlichen Publikum auf klare und ansprechende Weise vermittelt.

Hot Stories
Abonnieren Sie unseren Newsletter.
Aktuelles

Angesichts der Volatilität wächst der institutionelle Appetit auf Bitcoin-ETFs

Offenlegungen in 13F-Anmeldungen zeigen, dass namhafte institutionelle Anleger sich mit Bitcoin-ETFs beschäftigen, was die wachsende Akzeptanz von ... unterstreicht.

Weitere Informationen

Der Tag der Verurteilung steht vor der Tür: Das Schicksal von CZ bleibt ungewiss, während das US-Gericht den Plädoyer des DOJ prüft

Changpeng Zhao steht heute vor einer Verurteilung vor einem US-Gericht in Seattle.

Weitere Informationen
Treten Sie unserer innovativen Tech-Community bei
Weiterlesen
Lesen Sie weiter
Generative KI im Jahr 2024: Neue Trends, Durchbrüche und Zukunftsaussichten
AI Wiki Software Geschichten und Rezensionen Technologie
Generative KI im Jahr 2024: Neue Trends, Durchbrüche und Zukunftsaussichten
8. Mai 2024
DODOchain stellt die erste Phase des MACH AVS Mainnet vor und startet Launchpool-Kampagne mit AltLayer, um Betreiber mit Ökosystem-Belohnungen zu motivieren
Märkte Nachrichtenbericht Technologie
DODOchain stellt die erste Phase des MACH AVS Mainnet vor und startet Launchpool-Kampagne mit AltLayer, um Betreiber mit Ökosystem-Belohnungen zu motivieren
8. Mai 2024
zkSync stellt P256Verify vor, Bridgehub und Valdiums unterstützen im nächsten Upgrade erweiterte Funktionen
Nachrichtenbericht Technologie
zkSync stellt P256Verify vor, Bridgehub und Valdiums unterstützen im nächsten Upgrade erweiterte Funktionen
8. Mai 2024
LD Capital, Antalpha Ventures und Highblock Limited bündeln ihre Kräfte, um einen Hongkonger ETF-Liquiditätsfonds im Wert von 128 Millionen US-Dollar aufzulegen
Geschäft Märkte Nachrichtenbericht
LD Capital, Antalpha Ventures und Highblock Limited bündeln ihre Kräfte, um einen Hongkonger ETF-Liquiditätsfonds im Wert von 128 Millionen US-Dollar aufzulegen
8. Mai 2024