"Teknisk industri vil bevæge sig mod reduceret afhængighed af GPU'er i 2024," hævder Greg Osuri, administrerende direktør for Akash Network
Kort sagt
Administrerende direktør for Overclock Labs og Akash Network, Greg Osuri hævder, at omfavnelse af mindre GPU'er vil omforme det teknologiske landskab i 2024 og låse op for ringvirkninger.
Som store spillere i tech-industrien fortsætter med at dominere markedet med kraftfulde GPU'er, et bemærkelsesværdigt skift mod mindre kraftige chips forventes i 2024. Flytningen, drevet af behovet for alternativer, forventes at omforme landskabet, hvilket gør det muligt for mindre virksomheder og startups at bidrage væsentligt til det igangværende AI-boom.
Efterspørgslen efter højtydende databehandling, især til træning af store sprogmodeller, har overgået de traditionelle udbyderes muligheder som f.eks. AWS, Microsoft Azure og Google Cloud. Mindre virksomheder finder det udfordrende at have råd til og reservere disse højtydende ressourcer, hvilket fører til en voksende interesse for distribuerede og tilladelsesløse netværk.
I en samtale med Metaverse Post — Greg Osuri, administrerende direktør for Overclock Labs og Akash-netværk, kaste lys over de drivende faktorer og potentielle implikationer bag denne transformative tendens.
Decentraliseret cloud-platform Akash Network havde for nylig annonceret en betydelig opgradering til cloud med Mainnet 8. Den nye opgradering introducerede vigtige forbedringer, der har til formål at forenkle GPU adgang og højne implementeringsoplevelsen.
Greg Osuri identificerer optimering af datasætkrav som et nøgleelement i at omfavne mindre GPU'er.
Low-Rank Adaptation (LoRA) fremstår som en afgørende teknik i dette skift. Denne strategiske modifikation fokuserer på kritiske vægte, reducerer antallet af nødvendige parametre og bevarer den oprindelige forudtrænede viden i modellen.
"De, der søger alternativer midt i GPU-presset, vil gøre fremskridt ved at bruge mindre intensive datasætkrav, implementere mere effektive teknikker som Low-Rank Adaptation (LoRA) til at træne sprogmodeller og distribuere arbejdsbelastninger på en parallel måde," fortalte Akash Networks Greg Osuri. Metaverse Post. "Dette indebærer at implementere klynger af lavere lag chips til at udføre opgaver svarende til et mindre antal A100'er og H100s. En ny æra med cloud computing vil dukke op, hvor magten er decentraliseret og ikke kun i hænderne på nogle få."
Han siger, at parallelisering af arbejdsbyrder gennem klynger af mindre chips er en anden strategi. Sammenlignet med traditionel GPU-udnyttelse tilbyder klynger bedre skalerbarhed, omkostningseffektivitet og fordelte arbejdsbelastningskapaciteter. Udfordringer omfatter imidlertid dataoverførselsforsinkelse, synkroniseringsproblemer, skalerbarhedsgrænser og kommunikationsomkostninger.
”Jo større data, jo dyrere og vanskeligere er kommunikationsomkostningerne mellem ikke-samlokaliserede maskiner, så der vil sandsynligvis være behov for mere effektive metoder/teknikker for at overvinde dyre og udfordrende kommunikationsbarrierer. En kombination af hardware og software er nødvendig for en vellykket implementering,” sagde Greg Osuri.
Udbredelsen af distribuerede og tilladelsesløse netværk dukker op som en afgørende muliggører, der giver organisationer mulighed for at udnytte potentialet i mindre GPU'er og øge den samlede chipudnyttelse.
"For at opnå optimering bør organisationer overveje mindre batchstørrelser, der kræver mindre GPU-hukommelse, træne på en delmængde af data for at fejlfinde, bruge forudtrænede modeller, da de kræver færre beregningsressourcer, og distribuere træning på tværs af flere GPU'er," forklarede Greg Osuri. "Dette giver mindre virksomheder og startups mulighed for at innovere og yde reelle bidrag til AI-boomet uden fuldstændig afhængighed af de mest kraftfulde GPU'er."
Distribuerede netværk kan styrke det tekniske landskab
Akash Networks Greg Osuri forestiller sig, at omfavnelse af mindre GPU'er vil fremme et mere mangfoldigt og konkurrencedygtigt miljø, hvilket afbøder bekymringer relateret til teknologigiganter, der dominerer AI landskab. Han siger, at denne tilgang giver en omkostningseffektiv, udvikler-første løsning til at få adgang til en bred vifte af GPU'er, hvilket giver mindre spillere mulighed for at konkurrere på lige fod.
"Innovative, decentraliserede løsninger fortsætter med at dukke op, som imødekommer stigningen i efterspørgslen, sikrer retfærdig GPU-adgang og fremmer innovation inden for cloud computing og AI-modeltræning. Ved at give tilladelsesfri adgang til computerressourcer – inklusive Nvidia A100s og H100s – fra en række udbydere, fra uafhængige til hyperskalaer, er disse computerplatforme unikt positioneret til at afbøde ineffektivitet,” sagde han.
Mindre virksomheder og nystartede virksomheder forventes at udnytte skiftet i retning af mindre GPU'er for at give meningsfulde bidrag til AI domæne. Eksempler, såsom Thumper.ai's brug af en klynge af 32 Nvidia A100'er, fremhæver optimeringen af underudnyttet computerkraft for hurtigere implementeringshastigheder.
"Ved at tilbyde en omkostningseffektiv, udvikler-første tilgang til at få adgang til en bred vifte af GPU'er, fra højtydende datacenterchips til forbrugermodeller, vil mindre spillere kunne få adgang til den samme computer som mere etablerede virksomheder, der har fleksibilitet i deres operationelle udgifter," tilføjede Greg Osuri.
Ser vi på bredere implikationer, forudser hr. Osuri et potentielt paradigmeskifte i teknologiindustrien. Skiftet mod mindre kraftfulde GPU'er og decentraliseret databehandling kan føre til udvikling af nye applikationer og use cases, der strækker sig ud over AI til andre teknologiske domæner.
"Den iboende fleksibilitet i et distribueret netværk kan gøre det muligt for uafhængige udviklere og forskere at eksperimentere med helt nye applikationer og låse op for nye måder at udvikle radikalt åbne applikationsarkitekturer," fortalte Akash Networks Greg Osuri. Metaverse Post. "Denne ringvirkning kan føre til udvikling af mere decentraliserede applikationer og tjenester på tværs af industrier, bredere deling af beregningsressourcer og viden, "comeback" af krypto og blockchain, og integration med eksisterende teknologier."
Ansvarsfraskrivelse
I tråd med den Trust Project retningslinjer, bemærk venligst, at oplysningerne på denne side ikke er beregnet til at være og ikke skal fortolkes som juridiske, skattemæssige, investeringsmæssige, finansielle eller nogen anden form for rådgivning. Det er vigtigt kun at investere, hvad du har råd til at tabe, og at søge uafhængig finansiel rådgivning, hvis du er i tvivl. For yderligere information foreslår vi at henvise til vilkårene og betingelserne samt hjælpe- og supportsiderne fra udstederen eller annoncøren. MetaversePost er forpligtet til nøjagtig, objektiv rapportering, men markedsforholdene kan ændres uden varsel.
Om forfatteren
Victor er Managing Tech Editor/Writer på Metaverse Post og dækker kunstig intelligens, krypto, datavidenskab, metaverse og cybersikkerhed inden for virksomhedsområdet. Han kan prale af et halvt årti med medie- og AI-erfaring med at arbejde på kendte medier som VentureBeat, DatatechVibe og Analytics India Magazine. Som mediementor på prestigefyldte universiteter, herunder Oxford og USC, og med en mastergrad i datavidenskab og analyse, er Victor dybt engageret i at holde sig ajour med nye tendenser. Han tilbyder læserne de nyeste og mest indsigtsfulde fortællinger fra Tech og Web3 landskab.
Flere artiklerVictor er Managing Tech Editor/Writer på Metaverse Post og dækker kunstig intelligens, krypto, datavidenskab, metaverse og cybersikkerhed inden for virksomhedsområdet. Han kan prale af et halvt årti med medie- og AI-erfaring med at arbejde på kendte medier som VentureBeat, DatatechVibe og Analytics India Magazine. Som mediementor på prestigefyldte universiteter, herunder Oxford og USC, og med en mastergrad i datavidenskab og analyse, er Victor dybt engageret i at holde sig ajour med nye tendenser. Han tilbyder læserne de nyeste og mest indsigtsfulde fortællinger fra Tech og Web3 landskab.