Nieuwsverslag Technologie
18 januari 2024

Deci en Qualcomm werken samen om generatieve AI in alle sectoren te democratiseren

In het kort

Deci kondigde een samenwerking aan met Qualcomm Technologies om geavanceerde generatieve AI-modellen te ontwikkelen voor de Qualcomm Cloud AI 100.

Deci en Qualcomm werken samen om generatieve AI in alle sectoren te democratiseren

AI-oplossingenbedrijf Deci heeft een samenwerking aangekondigd met Qualcomm Technologies om geavanceerde technologieën te ontwikkelen generatieve AI modellen voor de Qualcomm Cloud AI 100. De samenwerking heeft tot doel AI toegankelijker te maken voor een breder scala aan toepassingen en de kracht van generatieve AI voor ontwikkelaars te democratiseren.

Door modellen specifiek op maat te maken voor de Qualcomm Cloud AI 100-oplossing willen de bedrijven kosteneffectieve, realtime AI-verwerking ontsluiten. Cloud AI 100 is de oplossing van Qualcomm die is gebouwd om de prestaties te optimaliseren voor generatieve AI-inferentie, waaronder grote taalmodellen (LLM's).

“Enkele van de belangrijkste uitdagingen in het huidige generatieve AI-landschap hebben te maken met de beschikbaarheid van rekenkracht voor de verwerking van deze enorme modellen en de enorme kosten om ze te laten draaien”, zegt Yonatan Geifman, CEO en medeoprichter van Deci. Metaverse Post. “Door gebruik te maken van de modellen van Deci kunnen Qualcomm-gebruikers het maximale uit hun hardware-investering halen met modellen die een maximaal hardwaregebruik garanderen en tegelijkertijd hoge snelheid en nauwkeurigheid leveren.”

Deci zal samenwerken met Qualcomm Technologies om twee modellen te lanceren, namelijk DeciCoder-6B en DeciDiffusion 2.0.

Volgens de aankondiging is DeciCoder-6B een model met 6 miljard parameters voor het genereren van code, dat acht programmeertalen ondersteunt en beter presteert dan gevestigde modellen, terwijl het geheugen en de rekenefficiëntie behouden blijven.

Aan de andere kant is DeciDiffusion 2.0 een tekst-naar-beeld-diffusiemodel met 732 miljoen parameters, dat nieuwe normen stelt door afbeeldingen van hoge kwaliteit te leveren met verhoogde snelheid en efficiëntie.

Wat de AI-modellen van Deci onderscheidt

Tijdens gebruik LLM's in toepassingen in de echte wereld is het van cruciaal belang om gegevens efficiënt te organiseren op de servers die voorspellingen doen. Het belangrijkste doel is om zoveel mogelijk gebruikersverzoeken tegelijkertijd af te handelen. Het vinden van de juiste balans tussen de hoeveelheid gegevens die in één keer wordt verwerkt (batchgrootte) en de tijd die nodig is om een ​​reactie te krijgen (latency) hangt af van twee belangrijke dingen: het ontwerp van het model en de mogelijkheden van de hardware die wordt gebruikt voor het maken van voorspellingen.

“DeciCoder-6B heeft een kleiner aantal parameters dan zijn tegenhangers, wat resulteert in een kleinere geheugenvoetafdruk en het vrijmaken van 2 GB extra geheugen vergeleken met CodeGen 2.5 7B en 7 miljard parametermodellen. Het model blinkt uit in geheugen- en rekenefficiëntie, waardoor een effectieve schaalvergroting van batchverwerking mogelijk is zonder substantieel geheugengebruik of opmerkelijke toename van de latentie”, aldus Yonatan Geifman, CEO van Deci.

Hij legde verder uit: “DeciDiffusion 2.0 levert beelden van hoge kwaliteit in 40% minder iteraties en maakt gebruik van een kleinere en snellere U-Net-component vergeleken met Stable Diffusion 1.5. Het kan beelden van hoge kwaliteit produceren met minder diffusietijdstappen tijdens het inferentieproces.”

Het model reduceert effectief het aantal stappen dat nodig is om een ​​kwaliteitsbeeld te genereren van 16 naar slechts 10.

Deci’s Neural Architecture Search Technology – AutoNAC – heeft een cruciale rol gespeeld in de efficiëntie en schaalbaarheid van de modellen. Het automaten het zoekproces op een computerefficiënte manier uit te voeren, waardoor het zich onderscheidt van traditionele methoden. Deze technologie stelde Deci in staat om binnen een kort tijdsbestek een reeks ultramoderne modellen uit te brengen, met lagere uitgaven aan computergebruik voor training vergeleken met andere ontwikkelaars van grote taalmodellen.

DeciCoder-6B: precisie op maat voor industriële uitmuntendheid

Het vermogen van DeciCoder-6B om acht programmeertalen te ondersteunen, positioneert het als een go-to-model voor een breed scala aan toepassingen. Geifman deelde enkele van de verschillende manieren waarop het model kan worden ingezet.

“Op het gebied van softwareontwikkeling kan het helpen bij het genereren en voltooien van code, waardoor de ontwikkeltijd aanzienlijk wordt verkort en de productiviteit wordt verhoogd. Verder kan DeciCoder-6B worden gebruikt om programmeerles te geven, waarbij een verscheidenheid aan talen en moeilijkheidsniveaus wordt behandeld. Studenten kunnen het gebruiken om hun werk te controleren en als handleiding voor oplossingen”, zegt Geifman van Deci Metaverse Post.

“Bovendien kan het model op het gebied van cyberbeveiliging worden verfijnd om te helpen bij het schrijven en analyseren van scripts voor het scannen van kwetsbaarheden, met de mogelijkheid om beveiligingscontroles in verschillende programmeeromgevingen te automatiseren”, voegde hij eraan toe.

De samenwerking tussen Deci en Qualcomm Technologieën markeren een belangrijke stap in de richting van het democratiseren van de kracht van generatieve AI. Met geoptimaliseerde modellen, efficiënte technologie en een streven naar openheid wil het partnerschap ontwikkelaars en industrieën over de hele wereld voorzien van toegankelijke en kosteneffectieve AI-oplossingen.

Disclaimer

In lijn met de Richtlijnen voor vertrouwensprojectenHoud er rekening mee dat de informatie op deze pagina niet bedoeld is en niet mag worden geïnterpreteerd als juridisch, fiscaal, beleggings-, financieel of enige andere vorm van advies. Het is belangrijk om alleen te beleggen wat u zich kunt veroorloven te verliezen en onafhankelijk financieel advies in te winnen als u twijfels heeft. Voor meer informatie raden wij u aan de algemene voorwaarden en de hulp- en ondersteuningspagina's van de uitgever of adverteerder te raadplegen. MetaversePost streeft naar nauwkeurige, onpartijdige berichtgeving, maar de marktomstandigheden kunnen zonder voorafgaande kennisgeving worden gewijzigd.

Over de auteur

Kumar is een ervaren technologiejournalist met een specialisatie in de dynamische kruispunten van AI/ML, marketingtechnologie en opkomende velden zoals crypto, blockchain en NFTS. Met meer dan drie jaar ervaring in de branche heeft Kumar een bewezen staat van dienst opgebouwd in het opstellen van boeiende verhalen, het houden van inzichtelijke interviews en het leveren van uitgebreide inzichten. De expertise van Kumar ligt in het produceren van inhoud met een grote impact, waaronder artikelen, rapporten en onderzoekspublicaties voor vooraanstaande industriële platforms. Met een unieke reeks vaardigheden die technische kennis en verhalen vertellen combineert, blinkt Kumar uit in het op een duidelijke en boeiende manier communiceren van complexe technologische concepten aan een divers publiek.

Meer artikelen
Kumar Gandharv
Kumar Gandharv

Kumar is een ervaren technologiejournalist met een specialisatie in de dynamische kruispunten van AI/ML, marketingtechnologie en opkomende velden zoals crypto, blockchain en NFTS. Met meer dan drie jaar ervaring in de branche heeft Kumar een bewezen staat van dienst opgebouwd in het opstellen van boeiende verhalen, het houden van inzichtelijke interviews en het leveren van uitgebreide inzichten. De expertise van Kumar ligt in het produceren van inhoud met een grote impact, waaronder artikelen, rapporten en onderzoekspublicaties voor vooraanstaande industriële platforms. Met een unieke reeks vaardigheden die technische kennis en verhalen vertellen combineert, blinkt Kumar uit in het op een duidelijke en boeiende manier communiceren van complexe technologische concepten aan een divers publiek.

De institutionele belangstelling groeit richting Bitcoin ETF’s te midden van volatiliteit

Uit openbaarmakingen via 13F-registraties blijkt dat opmerkelijke institutionele beleggers zich bezighouden met Bitcoin ETF's, wat een groeiende acceptatie onderstreept van ...

Meer weten

De dag van de veroordeling breekt aan: het lot van CZ hangt in evenwicht terwijl de Amerikaanse rechtbank het pleidooi van DOJ in overweging neemt

Changpeng Zhao staat vandaag op het punt te worden veroordeeld door een Amerikaanse rechtbank in Seattle.

Meer weten
Sluit u aan bij onze innovatieve technologiegemeenschap
Lees meer
Lees meer
Generatieve AI in 2024: opkomende trends, doorbraken en toekomstperspectieven
AI Wiki Software Verhalen en recensies Technologie
Generatieve AI in 2024: opkomende trends, doorbraken en toekomstperspectieven
8 mei 2024
DODOchain onthult eerste fase van MACH AVS Mainnet en lanceert Launchpool-campagne met AltLayer om operators te stimuleren met ecosysteembeloningen
Markten Nieuwsverslag Technologie
DODOchain onthult eerste fase van MACH AVS Mainnet en lanceert Launchpool-campagne met AltLayer om operators te stimuleren met ecosysteembeloningen
8 mei 2024
zkSync introduceert P256Verify, Bridgehub en Valdiums ondersteunen verbeterde functies in de volgende upgrade
Nieuwsverslag Technologie
zkSync introduceert P256Verify, Bridgehub en Valdiums ondersteunen verbeterde functies in de volgende upgrade
8 mei 2024
LD Capital, Antalpha Ventures en Highblock Limited bundelen hun krachten om een ​​Hong Kong ETF-liquiditeitsfonds van $128 miljoen te lanceren
Business Markten Nieuwsverslag
LD Capital, Antalpha Ventures en Highblock Limited bundelen hun krachten om een ​​Hong Kong ETF-liquiditeitsfonds van $128 miljoen te lanceren
8 mei 2024