Evoluce chatbotů z éry T9 a GPT-1 na ChatGPT
V poslední době jsme téměř denně bombardováni zpravodajskými příspěvky o nejnovějších rekordech překonaných rozsáhlými neuronovými sítěmi a o tom, proč není téměř žádná práce bezpečná. Přesto si jen velmi málo lidí uvědomuje, jak se neuronové sítě líbí ChatGPT skutečně fungovat.
Takže klid. Ještě nenaříkejte nad svými vyhlídkami na zaměstnání. V tomto příspěvku vysvětlíme vše, co je třeba vědět o neuronových sítích tak, aby to každý pochopil.
Upozornění, než začneme: Tento kus je spolupráce. Celou technickou část napsal specialista na AI, který je mezi AI dobře známý.
Protože ještě nikdo nenapsal podrobnější článek o tom, jak ChatGPT díla, která by laicky vysvětlila záludnosti neuronových sítí, rozhodli jsme se to udělat za vás. Snažili jsme se, aby byl tento příspěvek co nejjednodušší, aby čtenáři mohli vyjít ze čtení tohoto příspěvku s obecným pochopením principů jazykových neuronových sítí. Prozkoumáme jak jazykové modely tam pracují, jak se neuronové sítě vyvinuly, aby získaly své současné schopnosti, a proč ChatGPTVýbušná popularita překvapila i jeho tvůrce.
Začněme základy. Rozumět ChatGPT z technického hlediska musíme nejprve pochopit, co to není. Toto není Jarvis z Marvel Comics; není to racionální bytost; není to džin. Připravte se na šok: ChatGPT je vlastně T9 vašeho mobilu na steroidech! Ano, je to tak: Vědci obě tyto technologie označují jako "jazykové modely." Vše, co neuronové sítě dělají, je hádat, jaké slovo by mělo následovat.
Původní technologie T9 pouze urychlila tlačítkové vytáčení telefonu tím, že uhádlo aktuální vstup spíše než následující slovo. Technologie však pokročila a v éře chytrých telefonů na začátku roku 2010 byla schopna zvážit kontext a slovo dříve, přidat interpunkci a nabídnout výběr slov, která by mohla následovat. To je přesně analogie, kterou děláme s takovou „pokročilou“ verzí T9 nebo autocorrectu.
Výsledkem je, že jak T9 na klávesnici smartphonu, tak ChatGPT byli vycvičeni k řešení směšně jednoduchého úkolu: předpovídání dalšího slova. Toto je známé jako „jazykové modelování“ a dochází k němu, když se rozhoduje o tom, co by mělo být dále napsáno na základě existujícího textu. Jazykové modely musí pracovat na pravděpodobnosti výskytu konkrétních slov, aby bylo možné takové předpovědi provést. Ostatně by vás štvalo, kdyby vám automatické vyplňování telefonu se stejnou pravděpodobností házelo jen zcela náhodná slova.
Pro názornost si představme, že obdržíte zprávu od přítele. Píše se: "Jaké máš plány na večer?" V reakci na to začnete psát: „Jdu na…“, a tady přichází na řadu T9. Může přijít s naprosto nesmyslnými věcmi jako „Jedu na Měsíc“, není potřeba žádný složitý jazykový model. Dobré modely smartphonu s automatickým dokončováním navrhují mnohem relevantnější slova.
Jak tedy T9 ví, která slova pravděpodobně následují za již napsaným textem a která zjevně nedává smysl? Abychom na tuto otázku odpověděli, musíme nejprve prozkoumat základní principy fungování těch nejjednodušších neuronové sítě.
- Jak modely umělé inteligence předpovídají další slovo
- Proč se stále snažíme najít ta 'správná' slova pro daný text?
- GPT-1: Vyhodit průmysl do povětří
- GPT-2: Doba velkých jazykových modelů
- GPT-3: Chytrý jako peklo
- GPT-3.5 (PokynGPT): Model vycvičený tak, aby byl bezpečný a netoxický
- ChatGPT: Masivní vlna humbuku
Jak modely umělé inteligence předpovídají další slovo
Začněme jednodušší otázkou: Jak předpovídáte vzájemnou závislost některých věcí na jiných? Předpokládejme, že chceme naučit počítač předpovídat váhu člověka na základě jeho výšky – jak bychom na to měli jít? Nejprve bychom měli identifikovat oblasti zájmu a poté shromáždit data, na kterých bychom mohli hledat závislosti zájmu, a poté se pokusit „vytrénovat“ nějaký matematický model hledat vzory v těchto datech.
Zjednodušeně řečeno, T9 resp ChatGPT jsou jen chytře zvolené rovnice, které se o to pokoušejí předpovědět slovo (Y) založené na množině předchozích slov (X) přiváděných do vstupu modelu. Při tréninku a jazykový model na souboru dat je hlavním úkolem vybrat koeficienty pro tato x, které skutečně odrážejí nějaký druh závislosti (jako v našem příkladu s výškou a hmotností). A u velkých modelů lépe porozumíme těm s velkým množstvím parametrů. V oblasti umělá inteligencejsou označovány jako velké jazykové modely, zkráceně LLM. Jak uvidíme později, velký model s mnoha parametry je nezbytný pro generování dobrého textu.
Mimochodem, pokud vás zajímá, proč neustále mluvíme o „předvídání dalšího slova“. ChatGPT rychle reaguje celými odstavci textu, odpověď je jednoduchá. Jistě, jazykové modely dokážou bez problémů generovat dlouhé texty, ale celý proces je slovo po slovu. Po vygenerování každého nového slova model jednoduše znovu spustí celý text s novým slovem a vygeneruje další slovo. Proces se opakuje znovu a znovu, dokud nedostanete celou odpověď.
Proč se stále snažíme najít ta 'správná' slova pro daný text?
Jazykové modely se pokoušejí předvídat pravděpodobnosti různých slov, která se mohou v daném textu vyskytovat. Proč je to nutné a proč nemůžete pořád hledat to „nejsprávnější“ slovo? Zkusme si jednoduchou hru ilustrovat, jak tento proces funguje.
Pravidla jsou následující: Navrhuji, abyste pokračoval ve větě: „44. prezidentem Spojených států (a prvním Afroameričanem v této pozici) je Barak…“. Jaké slovo by mělo následovat? Jaká je pravděpodobnost, že k tomu dojde?
Pokud jste se 100% jistotou předpověděli, že další slovo bude „Obama“, mýlili jste se! A nejde o to, že existuje další mýtický Barak; je to mnohem triviálnější. Oficiální dokumenty obvykle používají celé jméno prezidenta. To znamená, že to, co následuje za Obamovým křestním jménem, by bylo jeho druhé jméno, Hussein. V naší větě by tedy správně vyškolený jazykový model měl předpovědět, že „Obama“ bude dalším slovem pouze s podmíněnou pravděpodobností 90 % a zbývajících 10 % přidělit, pokud text bude pokračovat „Hussein“ (načež Obama následovat s pravděpodobností blízkou 100 %).
A nyní se dostáváme k zajímavému aspektu jazykových modelů: Nejsou imunní vůči kreativním trendům! Ve skutečnosti je takové modely při generování každého dalšího slova vybírají „náhodným“ způsobem, jako by házely kostkou. Pravděpodobnost „vypadnutí“ různých slov víceméně odpovídá pravděpodobnostem, které naznačují rovnice vložené do modelu. Ty jsou odvozeny z obrovského množství různých textů, kterými byl model napájen.
Ukazuje se, že modelka může na stejné požadavky reagovat odlišně, stejně jako živý člověk. Výzkumníci se obecně pokoušeli donutit neurony, aby vždy zvolily „nejpravděpodobnější“ další slovo, ale i když se to navenek zdá racionální, ve skutečnosti takové modely fungují hůře. Zdá se, že dobrá dávka náhodnosti je výhodná, protože zvyšuje variabilitu a kvalitu odpovědí.
Náš jazyk má jedinečnou strukturu s odlišnými sadami pravidel a výjimek. Jaká slova se ve větě objevují, existuje rým a důvod, nevyskytují se jen náhodně. Každý se nevědomě učí pravidla jazyka, který používá během svých raných formativních let.
Slušný model by měl brát v úvahu širokou škálu popisnosti jazyka. Modelův schopnost produkovat požadované výsledky závisí na tom, jak přesně počítá pravděpodobnosti slov na základě jemností kontextu (předchozí část textu vysvětlující okolnost).
Shrnutí: Jednoduché jazykové modely, které jsou sadou rovnic trénovaných na obrovském množství dat k předpovídání dalšího slova na základě vstupního zdrojového textu, jsou implementovány do funkce „T9/Autofill“ chytrých telefonů od počátku 2010.
GPT-1: Vyhodit průmysl do povětří
Odbočme od modelů T9. Zatímco pravděpodobně čtete tento díl dozvědět se o ChatGPT, nejprve musíme prodiskutovat začátky GPT modelová rodina.
GPT znamená „generativní předtrénovaný transformátor“, zatímco architektura neuronové sítě vyvinutá inženýry Google v roce 2017 je známý jako Transformer. Transformer je univerzální výpočetní mechanismus, který přijímá sadu sekvencí (dat) jako vstup a vytváří stejnou sadu sekvencí, ale v jiné formě, která byla změněna nějakým algoritmem.
Význam stvoření Transformeru lze vidět v tom, jak agresivně byl přijat a aplikován ve všech oblastech umělé inteligence (AI): překladu, zpracování obrazu, zvuku a videa. Sektor umělé inteligence (AI) prošel silným otřesem, který se posunul od takzvané „umělé stagnace“ k rychlému rozvoji a překonání stagnace.
Hlavní předností Transformeru jsou moduly, které lze snadno škálovat. Při požadavku na zpracování velkého množství textu najednou by se staré, předtransformátorové jazykové modely zpomalily. Na druhou stranu transformátorové neuronové sítě zvládají tento úkol daleko lépe.
V minulosti se vstupní data musela zpracovávat postupně nebo po jednom. Model by neuchoval data: Pokud by fungoval s jednostránkovým vyprávěním, zapomněl by text po jeho přečtení. Mezitím Transformer umožňuje vidět vše najednou, produkující výrazně úchvatnější výsledky.
Právě to umožnilo průlom ve zpracování textů neuronovými sítěmi. Výsledkem je, že model již nezapomíná: znovu používá dříve napsaný materiál, lépe rozumí kontextu a co je nejdůležitější, je schopen vytvářet spojení mezi extrémně velkými objemy dat spárováním slov.
Shrnutí: GPT-1, který debutoval v roce 2018, ukázal, že neuronová síť může vytvářet texty pomocí návrhu Transformer, který výrazně zlepšil škálovatelnost a efektivitu. Pokud by bylo možné zvýšit množství a složitost jazykových modelů, vytvořilo by to značnou rezervu.
GPT-2: Doba velkých jazykových modelů
Jazykové modely není třeba předem speciálně označovat a lze je „nakrmit“ libovolnými textovými daty, což je činí extrémně flexibilními. Když se nad tím trochu zamyslíte, zdá se rozumné, že bychom chtěli využít jeho schopností. Jakýkoli text, který byl kdy napsán, slouží jako hotová tréninková data. Vzhledem k tomu, že již existuje tolik sekvencí typu „hodně některých slov a frází => další slovo po nich“, není to překvapivé.
Nyní mějme také na paměti, že technologie Transformers byla testována GPT-1 se ukázal jako docela úspěšný, pokud jde o škálování: Je podstatně efektivnější než jeho předchůdci při zpracování velkých objemů dat. Ukazuje se, že výzkumníci z OpenAI došlo v roce 2019 ke stejnému závěru: „Je čas snížit drahé jazykové modely!“
Projekt trénovací datový soubor a model zejména velikost, byly vybrány jako dvě klíčové oblasti, kde GPT-2 bylo potřeba zásadně zlepšit.
Vzhledem k tomu, že v té době neexistovaly žádné velké, vysoce kvalitní veřejné textové datové soubory speciálně navržené pro trénování jazykových modelů, musel každý tým odborníků na AI manipulovat s daty sám. The OpenAI lidé se pak rozhodli jít na Reddit, nejoblíbenější fórum v angličtině, a extrahovat všechny hypertextové odkazy z každého jednotlivého příspěvku, který měl více než tři lajky. Těchto odkazů bylo téměř 8 milionů a stažené texty vážily celkem 40 terabajtů.
Jaký počet parametrů měla rovnice popisující největší GPT-2 mít model v roce 2019? Možná sto tisíc nebo pár milionů? No, pojďme ještě dál: Vzorec obsahoval až 1.5 miliardy takových parametrů. Zapsat tolik čísel do souboru a uložit jej do počítače zabere 6 terabajtů. Model si tento text jako celek nemusí zapamatovat, takže na jedné straně je mnohem menší než celkové množství pole textových dat, na kterém se model trénoval; stačí mu jednoduše najít nějaké závislosti (vzory, pravidla), které lze izolovat od textů psaných lidmi.
Čím lépe model předpovídá pravděpodobnost a čím více parametrů obsahuje, tím složitější rovnice je do modelu zapojena. Díky tomu je text důvěryhodný. Kromě toho, GPT-2 model začal fungovat tak dobře, že OpenAI Výzkumníci dokonce se z bezpečnostních důvodů zdráhali odhalit model na otevřeném prostranství.
Je velmi zajímavé, že když se modelka zvětší, najednou začne mít nové kvality (jako schopnost psát soudržné, smysluplné eseje namísto pouhého diktování dalšího slova do telefonu).
V tomto bodě dochází ke změně z kvantity na kvalitu. Navíc se to děje zcela nelineárně. Například trojnásobné zvýšení počtu parametrů ze 115 na 350 milionů nemá žádný patrný dopad na schopnost modelu přesně řešit problémy. Dvojnásobný nárůst na 700 milionů však vede ke kvalitativnímu skoku, kdy neuronová síť „vidí světlo“ a začíná každého ohromovat svou schopností dokončit úkoly.
Shrnutí: V roce 2019 bylo představeno GPT-2, který 10x překonal svého předchůdce co do velikosti modelu (počtu parametrů) a objemu dat tréninkového textu. Díky tomuto kvantitativnímu pokroku model nepředvídatelně získal kvalitativně nové talenty, jako je schopnost psát dlouhé eseje s jasným smyslem a řešit náročné problémy, které vyžadují základy světového názoru.
GPT-3: Chytrý jako peklo
Obecně platí, že vydání v roce 2020 GPT-3, další generace v řadě, se již může pochlubit 116krát více parametry – až 175 miliardami a úžasnými 700 terabajty.
Projekt GPT-3 Tréninkový datový soubor byl také rozšířen, i když ne tak drasticky. Zvětšila se téměř 10krát na 420 gigabajtů a nyní obsahuje velké množství knih, Wikičlánky z pedia a další texty z jiných webových stránek. Člověku by trvalo přibližně 50 let nepřetržitého čtení, což by z toho činilo nemožný výkon.
Okamžitě si všimnete zajímavého rozdílu: na rozdíl od GPT-2, samotný model je nyní o 700 GB větší než celé pole textu pro jeho školení (420 GB). To se v jistém smyslu ukazuje jako paradox: v tomto případě, když „neuromozek“ studuje nezpracovaná data, generuje v nich informace o různých vzájemných závislostech, které jsou objemově hojnější než původní data.
V důsledku zobecnění modelu je nyní schopen extrapolovat ještě úspěšněji než dříve a je úspěšný i v úlohách generování textu, které se během tréninku vyskytovaly zřídka nebo vůbec. Nyní nemusíte učit model, jak se vypořádat s určitým problémem; stačí je popsat a uvést několik příkladů a GPT-3 se okamžitě naučí.
Projekt "univerzální mozek" ve tvaru GPT-3 nakonec porazil mnoho dřívějších specializovaných modelů. Například, GPT-3 začal překládat texty z francouzštiny nebo němčiny rychleji a přesněji než jakékoli předchozí neuronové sítě vytvořené speciálně pro tento účel. Jak? Dovolte mi připomenout, že diskutujeme o lingvistickém modelu, jehož jediným cílem bylo pokusit se předpovědět následující slovo v daném textu.
Ještě překvapivější je, GPT-3 se dokázal naučit sám… matematiku! Níže uvedený graf ukazuje, jak dobře si neuronové sítě vedou při úkolech včetně sčítání a odčítání a také násobení celých čísel až do pěti číslic s různým počtem parametrů. Jak můžete vidět, neuronové sítě najednou začnou „umět“ v matematice a přejdou od modelů s 10 miliardami parametrů k modelům se 100 miliardami.
Nejzajímavějším rysem výše uvedeného grafu je, jak se zpočátku zdá, že se při zvětšování velikosti modelu nic nemění (zleva doprava), ale najednou p krát! Dochází ke kvalitativnímu posunu a GPT-3 začíná „chápat“, jak vyřešit určitý problém. Nikdo si není jistý, jak, co a proč funguje. Přesto se zdá, že to funguje v řadě dalších obtíží, stejně jako v matematice.
Nejzajímavější vlastností výše uvedeného grafu je, že když se velikost modelu zvětší, nejprve se zdá, že se nic nezmění, a pak, GPT-3 udělá kvalitativní skok a začne „chápat“, jak vyřešit určitý problém.
Níže uvedený gif jednoduše ukazuje, jak v modelu „vyklíčí“ nové schopnosti, které nikdo záměrně neplánoval, jak se zvyšuje počet parametrů:
Shrnutí: Pokud jde o parametry, rok 2020 GPT-3 byl 100krát větší než jeho předchůdce, zatímco data trénovacího textu byla 10krát větší. Model se znovu naučil překládat z jiných jazyků, provádět aritmetiku, provádět jednoduché programování, uvažovat postupně a mnohem více v důsledku rozšíření kvantity, která náhle zvýšila kvalitu.
GPT-3.5 (PoučitGPT): Model vycvičený tak, aby byl bezpečný a netoxický
Rozšíření jazykových modelů ve skutečnosti nezaručuje, že bude reagovat na dotazy tak, jak si uživatelé přejí. Ve skutečnosti, když podáváme žádost, často zamýšlíme řadu nevyřčených výrazů, které se v lidské komunikaci považují za pravdivé.
Přesto, abych byl upřímný, jazykové modely nejsou příliš blízké těm lidským. Proto často potřebují přemýšlet o konceptech, které se lidem zdají jednoduché. Jedním z takových návrhů je věta „přemýšlejme krok za krokem“. Bylo by fantastické, kdyby modely pochopily nebo vygenerovaly konkrétnější a relevantnější pokyny z požadavku a přesněji je následovaly, jako by předvídaly, jak by se člověk choval.
Skutečnost, že se GPT-3 je trénován tak, aby pouze předvídal další slovo v masivní sbírce textů z internetu, je napsáno mnoho různých věcí, přispívá k nedostatku takových „výchozích“ schopností. Lidé chtějí, aby umělá inteligence poskytovala relevantní informace, a to vše při zachování bezpečnosti a netoxických reakcí.
Když se výzkumníci nad tímto problémem zamysleli, ukázalo se, že atributy modelu „přesnost a užitečnost“ a „neškodnost a netoxicita“ se někdy zdály být ve vzájemném rozporu. Koneckonců, model vyladěný na maximální neškodnost zareaguje na každou výzvu slovy „Promiňte, obávám se, že moje odpověď může někoho na internetu urazit.“ Přesný model by měl upřímně odpovědět na požadavek: "Dobře, Siri, jak vytvořit bombu."
Výzkumníci se proto omezili na to, že modelu jednoduše poskytli spoustu zpětné vazby. V jistém smyslu přesně takto se děti učí morálce: V dětství experimentují a přitom pečlivě studují reakce dospělých, aby posoudili, zda se zachovali správně.
PoučitGPT, také známý jako GPT-3.5, je v podstatě GPT-3 které získalo mnoho zpětné vazby pro vylepšení svých odpovědí. Doslova se na jednom místě shromáždilo několik jedinců, kteří hodnotili odpovědi neuronové sítě, aby zjistili, jak dobře odpovídají jejich očekáváním ve světle požadavku, který vznesli.
Ukázalo se, že GPT-3 již měl všechny základní znalosti: Dokázal porozumět mnoha jazykům, vybavit si historické události, rozpoznat variace v autorských stylech atd., ale mohl se naučit tyto znalosti správně používat (z našeho pohledu) pouze se vstupem od další jedinci. GPT-3.5 lze považovat za model „vzdělaný společností“.
Shrnutí: Primární funkce GPT-3.5, která byla zavedena na začátku roku 2022, byla další rekvalifikace založená na podnětech od jednotlivců. Ukazuje se, že tento model se ve skutečnosti nezvětšil a nezmoudřel, ale spíše si osvojil schopnost přizpůsobit své reakce tak, aby lidem rozdával ten nejdivočejší smích.
ChatGPT: Masivní vlna humbuku
Asi 10 měsíců po svém předchůdci InstructGPT/GGPT-3.5, ChatGPT byl představen. Okamžitě to vyvolalo celosvětový humbuk.
Z technologického hlediska se nezdá, že by mezi nimi byly nějaké výrazné rozdíly ChatGPT a InstruovatGPT. Model byl trénován s dalšími dialogovými daty, protože „úloha asistenta AI“ vyžaduje jedinečný formát dialogu, například schopnost položit upřesňující otázku, pokud je požadavek uživatele nejasný.
Tak proč nebyl kolem žádný humbuk GPT-3.5 na začátku roku 2022 ChatGPT zachvátil jako požár? Sam Altman, Výkonný ředitel společnosti OpenAI, otevřeně přiznali, že výzkumníci, které jsme zaskočili ChatGPTokamžitý úspěch. Koneckonců model se schopnostmi srovnatelnými s tím ležel v tu chvíli na jejich webu ladem více než deset měsíců a nikdo se s tím nesetkal.
Je to neuvěřitelné, ale zdá se, že klíčem k jeho úspěchu je nové uživatelsky přívětivé rozhraní. Stejný pokynGPT bylo možné přistupovat pouze přes jedinečné rozhraní API, které omezuje přístup lidí k modelu. ChatGPT, na druhou stranu používá známé rozhraní messengerů „dialogové okno“. Také od té doby ChatGPT byla dostupná všem najednou, zástup jednotlivců spěchal, aby interagovali s neuronovou sítí, prověřovali je a zveřejňovali sociální média, propagovat ostatní.
Více: Americký vzdělávací systém nutně potřebuje 300 tisíc učitelů – ale ChatGPT by mohla být odpověď |
Kromě skvělé techniky se podařilo udělat ještě jednu věc OpenAI: marketing. I když máte sebelepší model nebo nejinteligentnějšího chatbota, pokud nebude mít snadno použitelné rozhraní, nikoho to nebude zajímat. V tomto kontextu, ChatGPT dosáhla průlomu tím, že technologii představila široké veřejnosti pomocí obvyklého dialogového okna, ve kterém nám nápomocný robot „vytiskne“ řešení přímo před našima očima, slovo za slovem.
Nepřekvapivě, ChatGPT překonal všechny dosavadní rekordy v získávání nových uživatelů, překonal milník 1 milionu uživatelů za pouhých pět dní od svého spuštění a překonal hranici 100 milionů uživatelů za pouhé dva měsíce.
Samozřejmě tam, kde je rekordní nárůst uživatelů, jsou obrovské peníze. Číňané naléhavě oznámili blížící se propuštění svých vlastních chatbotMicrosoft rychle uzavřel dohodu OpenAI investovat do nich desítky miliard dolarů a inženýři Google zazvonili na poplach a začali formulovat plány na ochranu jejich vyhledávací služby před konkurencí neuronové sítě.
Shrnutí: Když ChatGPT model byl představen v listopadu 2022, nedošlo k žádnému významnému technologickému pokroku. Měl však pohodlné rozhraní pro zapojení uživatelů a otevřený přístup, což okamžitě vyvolalo masivní vlnu humbuku. Vzhledem k tomu, že se jedná o nejzásadnější problém v moderním světě, všichni začali okamžitě řešit jazykové modely.
Přečtěte si více o AI:
Odmítnutí odpovědnosti
V souladu s Pokyny k projektu Trust, prosím vezměte na vědomí, že informace uvedené na této stránce nejsou určeny a neměly by být vykládány jako právní, daňové, investiční, finanční nebo jakékoli jiné formy poradenství. Je důležité investovat jen to, co si můžete dovolit ztratit, a v případě pochybností vyhledat nezávislé finanční poradenství. Pro další informace doporučujeme nahlédnout do smluvních podmínek a také na stránky nápovědy a podpory poskytnuté vydavatelem nebo inzerentem. MetaversePost se zavázala poskytovat přesné a nezaujaté zprávy, ale podmínky na trhu se mohou bez upozornění změnit.
O autorovi
Damir je vedoucí týmu, produktový manažer a editor ve společnosti Metaverse Post, pokrývající témata jako AI/ML, AGI, LLM, Metaverse a Web3- související obory. Jeho články přitahují každý měsíc masivní publikum čítající více než milion uživatelů. Jeví se jako odborník s 10 lety zkušeností v oblasti SEO a digitálního marketingu. Damir byl zmíněn v Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto a další publikace. Jako digitální nomád cestuje mezi SAE, Tureckem, Ruskem a SNS. Damir získal bakalářský titul z fyziky, o kterém se domnívá, že mu dal dovednosti kritického myšlení potřebné k úspěchu v neustále se měnícím prostředí internetu.
Další článkyDamir je vedoucí týmu, produktový manažer a editor ve společnosti Metaverse Post, pokrývající témata jako AI/ML, AGI, LLM, Metaverse a Web3- související obory. Jeho články přitahují každý měsíc masivní publikum čítající více než milion uživatelů. Jeví se jako odborník s 10 lety zkušeností v oblasti SEO a digitálního marketingu. Damir byl zmíněn v Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto a další publikace. Jako digitální nomád cestuje mezi SAE, Tureckem, Ruskem a SNS. Damir získal bakalářský titul z fyziky, o kterém se domnívá, že mu dal dovednosti kritického myšlení potřebné k úspěchu v neustále se měnícím prostředí internetu.