7 bedste decentraliserede AI-platforme at holde øje med
Kort sagt
I denne artikel fremhæver vi de 7 bedste decentraliserede AI-platforme, der skaber lige vilkår.
Innovationer inden for kunstig intelligens (AI) har oplevet en enorm vækst siden debuten ChatGPT i november 2022. Selvom AI er blevet mainstream, fortsætter nogle betydelige flaskehalse med at bremse udviklingen og implementeringen – en af de største udfordringer for denne spirende industri er datakvalitet og -kontrol.
Ifølge en skøn Ifølge Epoch AI er den samlede effektive mængde af menneskeskabte offentlige tekstdata omkring 300 billioner tokens; denne mængde vil sandsynligvis blive fuldt udnyttet af sprogmodeller til træning mellem 2026 og 2032. Denne truende datamangel kombineret med bekymringer omkring gennemsigtighed og omkostninger er hovedsageligt et resultat af centraliseringen af de fleste AI-datapipelines.
På den positive side viser decentraliserede infrastrukturer sig at være værdifulde i løsningen af nogle af disse smertepunkter. I denne artikel fremhæver vi de 7 bedste decentraliserede AI-platforme, der skaber lige vilkår. Disse nye platforme giver AI-udviklere og virksomheder mulighed for at finde verificerbare, community-drevne datasæt uden at være afhængige af centraliserede formidlere.
OORT: Den komplette datacloud til decentraliseret AI
OORT er en komplet decentraliseret AI-løsning designet til at gøre det muligt for både virksomheder og enkeltpersoner at indsamle, behandle og tjene penge på AI-data.
Det, der skiller sig ud ved denne AI-datasky sammenlignet med dens centraliserede modstykker, er en global fællesskabstilgang; i stedet for at stole på uigennemsigtige dataindsamlingsprocesser introducerer OORT en decentraliseret omni-chain dataindsamlingsplatform kaldet OORT DataHub. Denne platform udnytter bidrag fra et globalt fællesskab til at levere forskellige, verificerbare datasæt af høj kvalitet for at afhjælpe de eksisterende mangler i AI-datakvalitet og -kontrol.
OORT DataHub understøttes af et decentraliseret netværk, OORT Edge, som driver lagring og behandling af de indsamlede data; det gør det via en edge node hardwareenhed – Deimos.
Som sådan har brugere af OORT-økosystemet mulighed for at tjene penge, der kan tjene penge, ved at bidrager mod DataHub'en eller blive en del af kantnetværket ved at Hosting en node via Deimos-enheden. Der er i øjeblikket over 330,000 databidragydere, mere end 83,000 noder og mere end 10,000 daglige brugere på dette decentraliserede AI-økosystem.
Bittensor: Det decentraliserede efterretningsnetværk
Bittensor er en anden interessant decentraliseret AI-platform; i kerne understøtter dette blockchain-baserede økosystem on-chain-produktion af digitale råvarer, herunder AI-inferens, træning og relateret infrastruktur.
Så hvordan fungerer det? Bittensor udnytter konceptet med subnets til at introducere fællesskaber, der producerer disse digitale varer til konkurrencedygtige priser. Dette er baseret på en incitamentsmodel, hvor de bedste minere (bidragydere) belønnes for at fuldføre en bestemt opgave. Nogle af opgaverne inden for et AI-subnet kan spænde fra tjenester som træning, forudsigelse eller specialiseret inferens.
Bittensors netværk inkluderer også validatorer, hvis rolle er at validere det arbejde, som minerne udfører. Dette sikrer, at kun kvalitetstjenester belønnes gennem Bittensors incitamentsmodel – økosystemet udsender 7200 TAO-tokens hver dag til dette formål. Allokeringerne inden for subnettene er opdelt i tre: subnet-skaber (18%), validatorer (41%) og minere (41%).
Bittensors decentraliserede undernet er et skift væk fra den centraliserede AI-træningsproces, hvor store teknologivirksomheder har monopol på dataindsamling og andre AI-tjenester.
Ocean Protocol: Markedsplads for AI-klare data
Oceanprotokol er en af de etablerede aktører inden for dette spirende innovationsområde. Denne platform, der er bygget som en decentraliseret protokol, understøtter de to hovedkomponenter, der er nødvendige for AI-udvikling – data og beregning.
Teknologistakken omfatter tre hoveddele: Datatokens, Ocean Nodes og Compute-to-Data. Med Datatokens kan Ocean Protocol-brugere tokenisere deres private data og gøre dem tilgængelige til modeltræning, samtidig med at de bevarer deres privatliv. En tilgang kaldet 'token-gating', hvor dataejere kan udgive datatjenester på Ocean Protocol-markedspladsen via en decentraliseret adgangskontrolmodel.
Hvad angår Ocean Nodes, muliggør disse monetisering af inaktive computerressourcer. Enhedsejere over hele verden kan dedikere deres inaktive computerkraft til at understøtte Ocean Network til gengæld for økosystembelønninger.
Compute-to-Data er kendetegnende for dette økosystem; det giver forbrugere (modeltrænere) mulighed for at købe datasæt, som de kan køre deres modeller imod, uden at udbyderens privatliv afsløres. Dette er det, der giver Ocean Protocol en fordel som en decentraliseret "markedsplads for AI-klare data".
SingularityNET: Pioneren inden for decentraliserede AI-tjenester
SingularityNET er en pioner inden for decentraliseret AI; projektet blev lanceret tilbage i 2017 og rejste en ICO på 36 millioner dollars på et minut. Siden da har det udviklet sig til at blive en velrenommeret blockchain-baseret platform, hvor brugere kan oprette, dele og tjene penge på AI-tjenester.
I modsætning til sine modparter, der fokuserer på datasæt og rå beregninger, specialiserer SingularityNET sig i AI-tjenester såsom API'er, modeller og agenter, som udviklere kan tjene penge på eller købe for at understøtte deres udviklingsinitiativer. Dette er muligt gennem platformens native token $AGIX, som giver deltagerne mulighed for at betale for AI-tjenesterne.
SingularityNETs infrastrukturmodel lægger også stor vægt på interoperabilitet, hvilket gør det muligt for de forskellige tjenester at interagere med hinanden. Dette skaber et AI-understøttet økosystem, hvor uafhængige bidragydere kan sammensætte komplekse pipelines.
Et andet fremtrædende træk ved dette særlige projekt er grundlæggerens, Dr. Ben Goertzels, vision om at fremme kunstig generel intelligens (AGI) – en tidsalder, hvor AI vil være i stand til at udføre alle de opgaver, som mennesker kan udføre, og potentielt overgå menneskelig intelligens på tværs af flere domæner.
Fetch.ai: Decentraliserede agenter og dataøkonomi
Fetch.ai er endnu en ny innovation, der opererer inden for den kommende agentøkonomi drevet af AI-agenter. Dette projekt er designet som en multi-agent platform, der giver autonome softwareagenter mulighed for at interagere, forhandle og overføre data på vegne af brugere, organisationer eller enheder, samtidig med at blockchain-teknologi udnyttes til at sikre kommunikationskanalerne.
En af hovedkomponenterne i dette økosystem er agentframeworket (AEA'er). Det har til opgave at udføre funktioner som dataindsamling og -analyse, interaktion med andre agenter eller datakilder, beslutninger, transaktioner og deltagelse i maskinlæring eller opgaveoptimering. Man kan tænke på dem som digitale tvillinger, der handler på vegne af brugerne.
Hvad skiller sig ud ved Fetch.ai er muliggørelsen af dynamiske datastrømme i realtid mellem autonome agenter. Dette er en forbedring i forhold til traditionelle AI-pipelines, som ikke kun er centraliserede, men også statiske af natur. For eksempel kan et trafikstyringssystem i en travl by bruge AI-agenter til at købe live trafikdata fra byens sensorer takket være den agentbaserede økonomimodel.
Gensyn: Decentraliseret beregning til AI-træning
Ifølge en nylig indberette Projekter fra McKinsey viser, at datacentre verden over vil kræve anslået 6.7 billioner dollars for at holde trit med den voksende efterspørgsel efter computerkraft. Gensyn adresserer denne truende omkostningsrisiko gennem sin decentraliserede protokol, der fokuserer på maskinlæringsberegning.
I bund og grund muliggør Gensyn samling af verdens computerforsyning i ét enkelt netværk. Dette er muligt gennem et decentraliseret framework, der giver alle med inaktiv datakraft mulighed for at allokere til netværket, hvilket understøtter AI-innovatører med globalt tilgængelig datakraft, som de kan leje for at skalere træningen af store modeller.
Gensyns økosystem består af fire grundlæggende komponenter: Konsekvent maskinlæringseksekvering, tillidsløs verifikation, peer-to-peer-kommunikation og decentraliseret koordinering. Alle disse aspekter arbejder sammen for at muliggøre decentraliseret, verificerbar maskinlæring på global skala.
Det er også værd at nævne, at dette projekt stadig er i de tidlige stadier, og Testnet er i øjeblikket tilgængeligt. Det indeholder tre applikationer, som brugerne kan afprøve: RL Swarm, BlockAssist og Judge.
Grass: Decentraliseret data crowdsourcing-netværk
Mange gange, når vi betaler for internettjenester, ender vi med ikke at bruge al den tildelte båndbredde. Grass, tidligere Grassdata, introducerede et innovativt koncept, hvor globale internetbrugere kan udnytte deres inaktive båndbredde.
Projektet vækker denne fortælling til live gennem sin distribuerede model, der giver alle mulighed for at bidrage og optjene belønninger gennem enkle trin, og dermed forvandle den inaktive båndbredde til en værdifuld ressource til AI-træning. Kort sagt fungerer Grass som et decentraliseret fysisk netværk (DepIN) til adgang til webdata, hvor brugerne kan køre noder fra deres daglige enheder og fungere som datakilder til AI og webintelligens.
Denne tilladelsesfri og distribuerede tilgang er ikke kun revolutionerende inden for AI-modeltræning, men også i forbindelse med at anvende hverdagens digitale ressourcer. Brugere kan fungere som dataleverandører for at drive et åbent netværk, der er i stand til at konkurrere med centraliserede webcrawlere og dataaggregatorer, som i øjeblikket kontrolleres af en håndfuld store tech-virksomheder.
Konklusion
Som nævnt i indledningen har udviklingen og implementeringen af AI ikke været uden sine egne unikke udfordringer. Dette inkluderer datakontrol, kvalitet og de stigende beregningsomkostninger. Men som fremhævet gennem eksemplerne i denne liste, har der været betydelige fremskridt inden for decentraliseret AI-innovation. Disse projekter er et glimt af, hvad decentraliserede arkitekturer har at tilbyde AI og omvendt; det er en win-win-situation for både blockchain- og AI-innovationer.
Sammenligningstabel for decentraliserede AI-platforme
| Projekt | Primære fokus | Hvad skiller sig ud |
| OORT | Decentraliseret AI-datasky, der gør det muligt for brugerne at indsamle, behandle og tjene penge på data | Fællesskabsdrevet DataHub og edge-netværk (Deimos) med over 330 bidragydere og verificerbare datasæt |
| Bittensor | Blockchain-netværk til decentraliseret AI-træning og -inferens | Incitamenterede undernetværk belønner kvalitets AI-output med daglige TAO-emissioner |
| Oceanprotokol | Markedsplads for AI-klar data og beregning | Compute-to-Data-privatlivsmodel, der muliggør sikker datadeling uden at eksponere rå datasæt |
| SingularityNET | Markedsplads for AI-tjenester og API'er | Monetisering af interoperable AI-agenter; banebrydende vision for kunstig generel intelligens (AGI) |
| Fetch.ai | Multi-agent AI-økonomi til autonom dataudveksling | Dataforhandling i realtid via autonome agenter (AEA'er) |
| Gensyn | Decentraliseret computernetværk til maskinlæring | Tillidsløs verifikation og aggregering af global computerforsyning til AI-træning |
| Grass | Decentraliseret båndbredde- og datacrowdsourcingnetværk | Konverterer inaktiv internetbåndbredde til AI-træningsdataressourcer |
Ofte stillede spørgsmål
Hvad er decentraliseret AI?
Decentraliseret AI refererer til kunstig intelligens-systemer, der er bygget på distribuerede økosystemer såsom blockchain eller peer-to-peer-infrastrukturer. Globale samfund påtager sig rollen som data-, beregnings- og modeltræning i modsætning til den centraliserede ramme, hvor store virksomheder kontrollerer alle disse funktioner.
Hvordan adskiller decentraliseret AI sig fra traditionelle AI-platforme?
I modsætning til deres traditionelle modstykker, som er afhængige af centraliserede datacentre og uigennemsigtige dataindsamlingsteknikker, distribuerer decentraliseret AI datasourcing, computerkraft og modeltræning til forskellige økosystemdeltagere. Dette forbedrer gennemsigtighed, sikkerhed og inklusion.
Hvorfor er datakvalitetskontrol vigtig for AI-udvikling?
Datakvaliteten har en direkte indflydelse på nøjagtigheden og retfærdigheden af AI-modeller. Derfor skal AI-datapipelines være verificerbare, etisk fremskaffede og deles sikkert.
Hvordan tjener deltagerne penge i decentraliserede AI-økosystemer?
Der er flere måder at tjene penge på disse økosystemer, herunder bidrag af værdifulde ressourcer såsom data og computerkraft. De fleste DeAI-platforme har incitamentsmekanismer, hvor brugerne kan modtage monetariserbare belønninger.
Hvilke decentraliserede AI-projekter er i øjeblikket førende inden for området?
Blandt de fremtrædende aktører er OORT (datacloud), Bittensor (AI-intelligensnetværk), Ocean Protocol (AI-klar datamarkedsplads), SingularityNET (AI-servicehub), Fetch.ai (agentøkonomi), Gensyn (decentraliseret beregning) og Grass (datacrowdsourcing-netværk).
Ansvarsfraskrivelse
I tråd med den Trust Project retningslinjer, bemærk venligst, at oplysningerne på denne side ikke er beregnet til at være og ikke skal fortolkes som juridiske, skattemæssige, investeringsmæssige, finansielle eller nogen anden form for rådgivning. Det er vigtigt kun at investere, hvad du har råd til at tabe, og at søge uafhængig finansiel rådgivning, hvis du er i tvivl. For yderligere information foreslår vi at henvise til vilkårene og betingelserne samt hjælpe- og supportsiderne fra udstederen eller annoncøren. MetaversePost er forpligtet til nøjagtig, objektiv rapportering, men markedsforholdene kan ændres uden varsel.
Om forfatteren
Gregory, en digital nomade fra Polen, er ikke kun finansanalytiker, men også en værdifuld bidragyder til forskellige onlinemagasiner. Med et væld af erfaring i den finansielle industri, har hans indsigt og ekspertise givet ham anerkendelse i adskillige publikationer. Ved at udnytte sin fritid effektivt, er Gregory i øjeblikket dedikeret til at skrive en bog om kryptovaluta og blockchain.
Flere artikler
Gregory, en digital nomade fra Polen, er ikke kun finansanalytiker, men også en værdifuld bidragyder til forskellige onlinemagasiner. Med et væld af erfaring i den finansielle industri, har hans indsigt og ekspertise givet ham anerkendelse i adskillige publikationer. Ved at udnytte sin fritid effektivt, er Gregory i øjeblikket dedikeret til at skrive en bog om kryptovaluta og blockchain.