7 Pinakamahusay na Desentralisadong AI Platform na Panoorin
Sa madaling sabi
Sa artikulong ito, binibigyang-diin namin ang nangungunang 7 desentralisadong AI platform na nagpapapantay sa larangan ng paglalaro.
Ang mga inobasyon ng Artificial Intelligence (AI) ay nakasaksi ng napakalaking paglago mula noong debut ng ChatGPT noong Nobyembre 2022. Gayunpaman, sa kabila ng pagiging mainstream, ang ilang makabuluhang bottleneck ay patuloy na nagpapabagal sa pag-unlad at paggamit ng AI – isa sa pinakamalaking hamon na kinakaharap ng bagong industriyang ito ay ang kalidad at kontrol ng data.
Ayon sa isang pagtatantya ng Epoch AI, ang kabuuang epektibong stock ng data ng pampublikong text na binuo ng tao ay humigit-kumulang 300 trilyong token; ang stock ng data na ito ay malamang na ganap na magagamit ng mga modelo ng wika para sa pagsasanay sa pagitan ng 2026 at 2032. Ang nagbabantang kakulangan ng data na ito, kasama ng mga alalahanin sa transparency at gastos ay pangunahing resulta ng sentralisasyon ng karamihan sa mga pipeline ng data ng AI.
Sa mas maliwanag na bahagi, ang mga desentralisadong imprastraktura ay nagpapatunay na mahalaga sa paglutas ng ilan sa mga punto ng sakit na ito. Sa artikulong ito, binibigyang-diin namin ang nangungunang 7 desentralisadong AI platform na nagpapapantay sa larangan ng paglalaro. Ang mga umuusbong na platform na ito ay nagbibigay sa mga tagabuo ng AI at mga negosyo ng kakayahang mag-source ng mga nabe-verify na dataset na hinihimok ng komunidad nang hindi umaasa sa mga sentralisadong tagapamagitan.
OORT: Ang Kumpletong Data Cloud para sa Desentralisadong AI
OORT ay isang end-to-end na desentralisadong solusyon sa AI na idinisenyo upang paganahin ang parehong mga negosyo at indibidwal na mangolekta, magproseso at pagkakitaan ang data ng AI.
Ang namumukod-tangi sa AI data cloud na ito kumpara sa mga sentralisadong katapat nito ay isang pandaigdigang diskarte sa komunidad; sa halip na umasa sa opaque na mga proseso ng pangongolekta ng data, ipinakilala ng OORT ang isang desentralisadong omni-chain data collection platform na tinatawag na OORT DataHub. Ang platform na ito ay gumagamit ng mga kontribusyon mula sa isang pandaigdigang komunidad upang maghatid ng magkakaibang, mataas na kalidad at nabe-verify na mga dataset para matugunan ang mga kasalukuyang pagkukulang sa kalidad at kontrol ng data ng AI.
Ang pagsuporta sa OORT DataHub ay isang desentralisadong network, OORT Edge, na nagpapagana sa pag-iimbak at pagproseso ng data na nakolekta; ginagawa ito sa pamamagitan ng isang edge node hardware device – Deimos.
Dahil dito, ang mga gumagamit ng OORT ecosystem ay may pagkakataong makakuha ng mga mapagkakakitaang reward sa pamamagitan ng nag-aambag patungo sa DataHub o pagiging bahagi ng edge network sa pamamagitan ng sa pagho-host isang node sa pamamagitan ng Deimos device. Kasalukuyang mayroong mahigit 330,000 data contributor, 83,000+ node at 10,000+ pang-araw-araw na user sa desentralisadong AI ecosystem na ito.
Bittensor: Ang Desentralisadong Intelligence Network
Bittensor ay isa pang kawili-wiling desentralisadong AI platform; sa kaibuturan, ang ecosystem na ito na nakabatay sa blockchain ay sumusuporta sa on-chain na produksyon ng mga digital commodities, kabilang ang AI inference, pagsasanay at kaugnay na imprastraktura.
Kaya, paano ito gumagana? Ginagamit ng Bittensor ang konsepto ng mga subnet para ipakilala ang mga komunidad na gumagawa ng mga digital commodity na ito sa mapagkumpitensyang rate. Ito ay batay sa isang incentivized na modelo kung saan ang pinakamahusay na mga minero (contributor) ay ginagantimpalaan para sa pagkumpleto ng isang partikular na gawain. Ang ilan sa mga gawain sa loob ng isang subnet ng AI ay maaaring mula sa mga serbisyo tulad ng pagsasanay, hula o espesyal na hinuha.
Kasama rin sa network ng Bittensor ang mga validator na ang tungkulin ay patunayan ang gawaing isinagawa ng mga minero. Tinitiyak nito na ang mga de-kalidad na serbisyo lamang ang ginagantimpalaan sa pamamagitan ng modelo ng insentibo ng Bittensor – ang ecosystem ay naglalabas ng 7200 TAO token araw-araw para sa layuning ito. Ang mga alokasyon sa loob ng mga subnet ay nahahati sa tatlo: tagalikha ng subnet (18%), mga validator (41%) at mga minero (41%).
Ang mga desentralisadong subnet ng Bittensor ay isang paglipat mula sa sentralisadong proseso ng pagsasanay sa AI, kung saan ang malaking tech ay may monopolyo sa pagkolekta ng data at iba pang mga serbisyo ng AI.
Ocean Protocol: Marketplace para sa AI-Ready Data
Ocean Protocol ay isa sa mga naitatag na manlalaro sa namumuong lugar na ito ng pagbabago. Binuo bilang isang desentralisadong protocol, pinapadali ng platform na ito ang dalawang pangunahing bahagi na kailangan para sa pagsulong ng AI – ang data at compute.
Kasama sa tech stack ang tatlong pangunahing bahagi: Datatokens, Ocean Nodes at Compute-to-Data. Gamit ang Datatokens, maaaring i-tokenize ng mga user ng Ocean Protocol ang kanilang pribadong data at gawin itong available para sa pagsasanay ng modelo habang pinapanatili pa rin ang kanilang privacy. Isang diskarte na tinatawag na 'token-gating' kung saan ang mga may-ari ng data ay maaaring mag-publish ng mga serbisyo ng data sa Ocean Protocol marketplace sa pamamagitan ng isang desentralisadong modelo ng access control.
Para naman sa Ocean Nodes, pinapayagan nito ang pag-monetize ng mga idle computing resources. Maaaring italaga ng mga may-ari ng device sa buong mundo ang kanilang idle computing power para suportahan ang Ocean Network bilang kapalit ng mga reward sa ecosystem.
Ang Compute-to-Data ay ang tampok na katangian ng ecosystem na ito; binibigyang-daan nito ang mga consumer (mga tagapagsanay ng modelo) na bumili ng mga dataset kung saan maaari nilang patakbuhin ang kanilang mga modelo nang hindi inihayag ang privacy ng provider. Ito ang nagbibigay sa Ocean Protocol ng kalamangan bilang isang desentralisadong "marketplace para sa AI-ready na data."
SingularityNET: Ang Pioneer ng Decentralized AI Services
SingularidadNET ay isang pioneer sa Decentralized AI space; ang proyekto ay inilunsad noong 2017, na nagtataas ng $36 milyon na ICO sa loob ng isang minuto. Simula noon, ito ay umunlad upang maging isang kagalang-galang na platform na nakabatay sa blockchain kung saan ang mga user ay maaaring lumikha, magbahagi at pagkakitaan ang mga serbisyo ng AI.
Hindi tulad ng mga katapat nito, na tumutuon sa mga dataset at raw compute, ang SingularityNET ay dalubhasa sa mga serbisyo ng AI gaya ng mga API, mga modelo at ahente na maaaring pagkakitaan o bilhin ng mga developer upang suportahan ang kanilang mga hakbangin sa pagpapaunlad. Posible ito sa pamamagitan ng katutubong token ng platform na $AGIX, na nagpapahintulot sa mga kalahok na magbayad para sa mga serbisyo ng AI.
Ang modelo ng imprastraktura ng SingularityNET ay binibigyang pansin din ang interoperability, na nagbibigay-daan sa iba't ibang serbisyo na tumawag sa isa't isa. Lumilikha ito ng AI-supportive ecosystem kung saan ang mga independiyenteng nag-aambag ay maaaring mag-assemble ng mga kumplikadong pipeline.
Ang isa pang namumukod-tanging feature ng partikular na proyektong ito ay ang pananaw ng founder, si Dr. Ben Goertzel, na isulong ang Artificial General Intelligence (AGI) – isang edad kung saan ang AI ay magkakaroon ng kakayahan na magsagawa ng anumang mga gawain na magagawa ng mga tao at potensyal na malampasan ang katalinuhan ng tao sa ilang mga domain.
Fetch.ai: Mga Desentralisadong Ahente at Ekonomiya ng Data
Fetch.ai ay isa pang nobelang inobasyon na tumatakbo sa loob ng paparating na ekonomiya ng ahente na pinapagana ng mga ahente ng AI. Idinisenyo ang proyektong ito bilang multi-agent platform, na nagpapahintulot sa mga autonomous na software agent na makipag-ugnayan, makipag-ayos at makipagtransaksyon ng data sa ngalan ng mga user, organisasyon o device habang ginagamit ang teknolohiya ng blockchain upang ma-secure ang mga channel ng komunikasyon.
Isa sa mga pangunahing bahagi ng ecosystem na ito ay ang agent framework (AEAs). Ito ay nakatalaga sa mga function tulad ng pagkolekta at pagsusuri ng data, pakikipag-ugnayan sa ibang mga ahente o pinagmumulan ng data, mga desisyon, mga transaksyon at pakikilahok sa machine learning o pag-optimize ng gawain. Maaaring isipin ng isa ang mga ito bilang digital twins na kumikilos sa ngalan ng mga user.
Ano ang namumukod-tangi tungkol sa Fetch.ai ay ang pagpapagana ng real-time, dynamic na daloy ng data sa pagitan ng mga autonomous na ahente. Ito ay isang pagsulong mula sa tradisyonal na mga pipeline ng AI, na hindi lamang sentralisado ngunit static din sa kalikasan. Halimbawa, ang isang sistema ng pamamahala ng trapiko sa isang abalang lungsod ay maaaring gumamit ng mga ahente ng AI upang bumili ng live na data ng trapiko mula sa mga sensor ng lungsod, salamat sa modelo ng ekonomiya na nakabatay sa ahente.
Gensyn: Desentralisadong Compute para sa Pagsasanay sa AI
Ayon sa isang kamakailang ulat ni McKinsey, ipinapakita ng mga proyekto na ang mga data center sa buong mundo ay mangangailangan ng tinatayang $6.7 trilyon upang makasabay sa lumalaking pangangailangan para sa kapangyarihan ng pag-compute. Gensyn tinutugunan ang nagbabantang panganib sa gastos na ito sa pamamagitan ng desentralisadong protocol nito, na nakatutok sa machine learning computation.
Sa kaibuturan, pinapayagan ng Gensyn ang pagsasama-sama ng supply ng computing sa mundo sa isang network. Posible ito sa pamamagitan ng isang desentralisadong balangkas na nagbibigay ng pagkakataon para sa sinumang may idle na pag-compute na maglaan sa network, na sumusuporta sa mga AI innovator na may magagamit na compute sa buong mundo na maaari nilang arkilahin upang sukatin ang pagsasanay ng malalaking modelo.
Binubuo ang ecosystem ng Gensyn ng apat na pangunahing bahagi: Consistent ML Execution, Trustless Verification, Peer-to-Peer Communication at Decentralized Coordination. Ang lahat ng facet na ito ay gumagana nang magkasabay upang paganahin ang desentralisado, nabe-verify na machine learning sa isang pandaigdigang saklaw.
Nararapat ding banggitin na ang proyektong ito ay nasa mga unang yugto pa rin, na kasalukuyang magagamit ang Testnet. Nagtatampok ito ng tatlong application na maaaring subukan ng mga user: RL Swarm, BlockAssist at Judge.
Damo: Desentralisadong Data Crowdsourcing Network
Maraming beses, kapag nagbabayad kami para sa mga serbisyo sa internet, hindi namin ginagamit ang lahat ng inilaan na bandwidth. Damo, ang dating Grassdata, ay nagpakilala ng isang makabagong konsepto kung saan maaaring gamitin ng mga global na gumagamit ng internet ang kanilang idle bandwidth.
Binibigyang-buhay ng proyekto ang salaysay na ito sa pamamagitan ng ipinamahagi nitong modelo na nagbibigay-daan sa sinuman na mag-ambag at makakuha ng mga reward sa pamamagitan ng mga simpleng hakbang, na ginagawang isang mahalagang mapagkukunan ang idle bandwidth para sa pagsasanay sa AI. Sa madaling salita, gumagana ang Grass bilang isang desentralisadong pisikal na network (DepIN) para sa pag-access ng data sa web, kung saan ang mga user ay maaaring magpatakbo ng mga node mula sa kanilang pang-araw-araw na device, na nagsisilbing data source para sa AI at Web intelligence.
Ang walang pahintulot at distributed na diskarte na ito ay hindi lamang isang game-changer sa AI model training kundi pati na rin sa paggamit ng pang-araw-araw na digital resources. Ang mga user ay maaaring kumilos bilang mga tagapagbigay ng data upang paganahin ang isang bukas na network na may kakayahang makipagkumpitensya sa mga sentralisadong web crawler at data aggregator na kasalukuyang kinokontrol ng ilang malalaking kumpanya ng teknolohiya.
Konklusyon
Gaya ng nabanggit sa panimula, ang ebolusyon at pag-aampon ng AI ay hindi naging walang sariling natatanging hanay ng mga hamon. Kabilang dito ang kontrol ng data, kalidad at ang pagtaas ng gastos sa pag-compute. Gayunpaman, tulad ng na-highlight sa pamamagitan ng mga halimbawa sa listicle na ito, nagkaroon ng makabuluhang pag-unlad sa desentralisadong AI innovation realm. Ang mga proyektong ito ay isang sulyap sa kung ano ang iniaalok ng mga desentralisadong arkitektura sa AI at kabaliktaran; ito ay win-win para sa parehong blockchain at AI innovations.
Talahanayan ng Paghahambing para sa Mga Desentralisadong AI Platform
| proyekto | Pangunahing Pokus | Ano ang Namumukod-tangi |
| OORT | Desentralisadong AI data cloud na nagbibigay-daan sa mga user na mangolekta, magproseso, at mag-monetize ng data | Community-driven na DataHub at edge network (Deimos) na may 330K+ contributor at nabe-verify na dataset |
| Bittensor | Blockchain network para sa desentralisadong AI na pagsasanay at hinuha | Mga incentivized na subnet na nagbibigay ng reward sa mga de-kalidad na AI output na may pang-araw-araw na paglabas ng TAO |
| Ocean Protocol | Marketplace para sa AI-ready na data at compute | Compute-to-Data privacy model na nagbibigay-daan sa secure na pagbabahagi ng data nang hindi inilalantad ang mga raw dataset |
| SingularidadNET | Marketplace para sa mga serbisyo at API ng AI | Monetization ng interoperable AI agents; pioneering vision para sa Artificial General Intelligence (AGI) |
| Fetch.ai | Multi-agent AI economy para sa autonomous data exchange | Real-time na data negotiation sa pamamagitan ng mga autonomous agent (AEAs) |
| Gensyn | Desentralisadong compute network para sa machine learning | Walang pinagkakatiwalaang pag-verify at pagsasama-sama ng global compute supply para sa AI training |
| Damo | Desentralisadong bandwidth at data crowdsourcing network | Kino-convert ang idle internet bandwidth sa AI-training data resources |
Mga Madalas Itanong
Ano ang desentralisadong AI?
Ang desentralisadong AI ay tumutukoy sa mga artificial intelligence system na binuo sa mga distributed ecosystem gaya ng blockchain o peer-to-peer na mga imprastraktura. Ginagampanan ng mga pandaigdigang komunidad ang tungkulin ng data, pagkalkula at pagsasanay sa modelo kumpara sa sentralisadong setting kung saan kinokontrol ng malalaking korporasyon ang lahat ng mga function na ito.
Paano naiiba ang desentralisadong AI sa tradisyonal na mga platform ng AI?
Hindi tulad ng kanilang mga tradisyunal na katapat, na umaasa sa mga sentralisadong data center at opaque na mga diskarte sa pangongolekta ng data, ang desentralisadong AI ay namamahagi ng data sourcing, compute power at model training sa magkakaibang mga kalahok sa ecosystem. Pinapabuti nito ang transparency, seguridad at inclusivity.
Bakit mahalaga ang kontrol sa kalidad ng data para sa pagbuo ng AI?
Ang kalidad ng data ay may direktang epekto sa katumpakan at pagiging patas ng mga modelo ng AI. Dahil dito, ang mga pipeline ng data ng AI ay kailangang ma-verify, imulat sa etika at ligtas na maibahagi.
Paano kumikita ang mga kalahok sa desentralisadong AI ecosystem?
Mayroong ilang mga paraan upang kumita mula sa mga ecosystem na ito, kabilang ang kontribusyon ng mga mahahalagang mapagkukunan tulad ng data at kapangyarihan sa pag-compute. Karamihan sa mga platform ng DeAI ay may mga mekanismo ng insentibo kung saan maaaring makatanggap ang mga user ng mga reward na mapagkakakitaan.
Aling mga desentralisadong proyekto ng AI ang kasalukuyang nangunguna sa espasyo?
Kabilang sa mga kilalang manlalaro ang OORT (data cloud), Bittensor (AI intelligence network), Ocean Protocol (AI-ready data marketplace), SingularityNET (AI service hub), Fetch.ai (agent economy), Gensyn (decentralized compute), at Grass (data crowdsourcing network).
Pagtanggi sa pananagutan
Sa linya na may Mga alituntunin ng Trust Project, pakitandaan na ang impormasyong ibinigay sa pahinang ito ay hindi nilayon at hindi dapat bigyang-kahulugan bilang legal, buwis, pamumuhunan, pananalapi, o anumang iba pang paraan ng payo. Mahalagang mamuhunan lamang kung ano ang maaari mong mawala at humingi ng independiyenteng payo sa pananalapi kung mayroon kang anumang mga pagdududa. Para sa karagdagang impormasyon, iminumungkahi naming sumangguni sa mga tuntunin at kundisyon pati na rin sa mga pahina ng tulong at suporta na ibinigay ng nagbigay o advertiser. MetaversePost ay nakatuon sa tumpak, walang pinapanigan na pag-uulat, ngunit ang mga kondisyon ng merkado ay maaaring magbago nang walang abiso.
Tungkol sa Ang May-akda
Si Gregory, isang digital nomad na nagmula sa Poland, ay hindi lamang isang financial analyst kundi isang mahalagang kontribyutor din sa iba't ibang online na magazine. Sa maraming karanasan sa industriya ng pananalapi, ang kanyang mga insight at kadalubhasaan ay nakakuha sa kanya ng pagkilala sa maraming publikasyon. Sa epektibong paggamit ng kanyang bakanteng oras, kasalukuyang nakatuon si Gregory sa pagsusulat ng libro tungkol sa cryptocurrency at blockchain.
Mas marami pang artikulo
Si Gregory, isang digital nomad na nagmula sa Poland, ay hindi lamang isang financial analyst kundi isang mahalagang kontribyutor din sa iba't ibang online na magazine. Sa maraming karanasan sa industriya ng pananalapi, ang kanyang mga insight at kadalubhasaan ay nakakuha sa kanya ng pagkilala sa maraming publikasyon. Sa epektibong paggamit ng kanyang bakanteng oras, kasalukuyang nakatuon si Gregory sa pagsusulat ng libro tungkol sa cryptocurrency at blockchain.