Novinky Technika
09. března 2023

Evoluce chatbotů z éry T9 a GPT-1 na ChatGPT

V poslední době jsme téměř denně bombardováni zpravodajskými příspěvky o nejnovějších rekordech překonaných rozsáhlými neuronovými sítěmi a o tom, proč není téměř žádná práce bezpečná. Přesto si jen velmi málo lidí uvědomuje, jak se neuronové sítě líbí ChatGPT skutečně fungovat.

Takže klid. Ještě nenaříkejte nad svými vyhlídkami na zaměstnání. V tomto příspěvku vysvětlíme vše, co je třeba vědět o neuronových sítích tak, aby to každý pochopil.

Evoluce chatbotů z éry T9 a GPT-1 na ChatGPT a Bart

Upozornění, než začneme: Tento kus je spolupráce. Celou technickou část napsal specialista na AI, který je mezi AI dobře známý.

Protože ještě nikdo nenapsal podrobnější článek o tom, jak ChatGPT díla, která by laicky vysvětlila záludnosti neuronových sítí, rozhodli jsme se to udělat za vás. Snažili jsme se, aby byl tento příspěvek co nejjednodušší, aby čtenáři mohli vyjít ze čtení tohoto příspěvku s obecným pochopením principů jazykových neuronových sítí. Prozkoumáme jak jazykové modely tam pracují, jak se neuronové sítě vyvinuly, aby získaly své současné schopnosti, a proč ChatGPTVýbušná popularita překvapila i jeho tvůrce.

Začněme základy. Rozumět ChatGPT z technického hlediska musíme nejprve pochopit, co to není. Toto není Jarvis z Marvel Comics; není to racionální bytost; není to džin. Připravte se na šok: ChatGPT je vlastně T9 vašeho mobilu na steroidech! Ano, je to tak: Vědci obě tyto technologie označují jako "jazykové modely." Vše, co neuronové sítě dělají, je hádat, jaké slovo by mělo následovat.

Původní technologie T9 pouze urychlila tlačítkové vytáčení telefonu tím, že uhádlo aktuální vstup spíše než následující slovo. Technologie však pokročila a v éře chytrých telefonů na začátku roku 2010 byla schopna zvážit kontext a slovo dříve, přidat interpunkci a nabídnout výběr slov, která by mohla následovat. To je přesně analogie, kterou děláme s takovou „pokročilou“ verzí T9 nebo autocorrectu.

Výsledkem je, že jak T9 na klávesnici smartphonu, tak ChatGPT byli vycvičeni k řešení směšně jednoduchého úkolu: předpovídání dalšího slova. Toto je známé jako „jazykové modelování“ a dochází k němu, když se rozhoduje o tom, co by mělo být dále napsáno na základě existujícího textu. Jazykové modely musí pracovat na pravděpodobnosti výskytu konkrétních slov, aby bylo možné takové předpovědi provést. Ostatně by vás štvalo, kdyby vám automatické vyplňování telefonu se stejnou pravděpodobností házelo jen zcela náhodná slova.

Pro názornost si představme, že obdržíte zprávu od přítele. Píše se: "Jaké máš plány na večer?" V reakci na to začnete psát: „Jdu na…“, a tady přichází na řadu T9. Může přijít s naprosto nesmyslnými věcmi jako „Jedu na Měsíc“, není potřeba žádný složitý jazykový model. Dobré modely smartphonu s automatickým dokončováním navrhují mnohem relevantnější slova.

Jak tedy T9 ví, která slova pravděpodobně následují za již napsaným textem a která zjevně nedává smysl? Abychom na tuto otázku odpověděli, musíme nejprve prozkoumat základní principy fungování těch nejjednodušších neuronové sítě.

Více: ChatGPT API je nyní k dispozici, otevírá bránu pro vývojáře

Jak modely umělé inteligence předpovídají další slovo

Začněme jednodušší otázkou: Jak předpovídáte vzájemnou závislost některých věcí na jiných? Předpokládejme, že chceme naučit počítač předpovídat váhu člověka na základě jeho výšky – jak bychom na to měli jít? Nejprve bychom měli identifikovat oblasti zájmu a poté shromáždit data, na kterých bychom mohli hledat závislosti zájmu, a poté se pokusit „vytrénovat“ nějaký matematický model hledat vzory v těchto datech.

Jak modely umělé inteligence předpovídají další slovo

Zjednodušeně řečeno, T9 resp ChatGPT jsou jen chytře zvolené rovnice, které se o to pokoušejí předpovědět slovo (Y) založené na množině předchozích slov (X) přiváděných do vstupu modelu. Při tréninku a jazykový model na souboru dat je hlavním úkolem vybrat koeficienty pro tato x, které skutečně odrážejí nějaký druh závislosti (jako v našem příkladu s výškou a hmotností). A u velkých modelů lépe porozumíme těm s velkým množstvím parametrů. V oblasti umělá inteligencejsou označovány jako velké jazykové modely, zkráceně LLM. Jak uvidíme později, velký model s mnoha parametry je nezbytný pro generování dobrého textu.

Mimochodem, pokud vás zajímá, proč neustále mluvíme o „předvídání dalšího slova“. ChatGPT rychle reaguje celými odstavci textu, odpověď je jednoduchá. Jistě, jazykové modely dokážou bez problémů generovat dlouhé texty, ale celý proces je slovo po slovu. Po vygenerování každého nového slova model jednoduše znovu spustí celý text s novým slovem a vygeneruje další slovo. Proces se opakuje znovu a znovu, dokud nedostanete celou odpověď.

Více: ChatGPT Může způsobit nevratnou lidskou degeneraci

Proč se stále snažíme najít ta 'správná' slova pro daný text?

Jazykové modely se pokoušejí předvídat pravděpodobnosti různých slov, která se mohou v daném textu vyskytovat. Proč je to nutné a proč nemůžete pořád hledat to „nejsprávnější“ slovo? Zkusme si jednoduchou hru ilustrovat, jak tento proces funguje.

Pravidla jsou následující: Navrhuji, abyste pokračoval ve větě: „44. prezidentem Spojených států (a prvním Afroameričanem v této pozici) je Barak…“. Jaké slovo by mělo následovat? Jaká je pravděpodobnost, že k tomu dojde?

Proč se stále snažíme najít ta 'správná' slova pro daný text?

Pokud jste se 100% jistotou předpověděli, že další slovo bude „Obama“, mýlili jste se! A nejde o to, že existuje další mýtický Barak; je to mnohem triviálnější. Oficiální dokumenty obvykle používají celé jméno prezidenta. To znamená, že to, co následuje za Obamovým křestním jménem, ​​by bylo jeho druhé jméno, Hussein. V naší větě by tedy správně vyškolený jazykový model měl předpovědět, že „Obama“ bude dalším slovem pouze s podmíněnou pravděpodobností 90 % a zbývajících 10 % přidělit, pokud text bude pokračovat „Hussein“ (načež Obama následovat s pravděpodobností blízkou 100 %).

A nyní se dostáváme k zajímavému aspektu jazykových modelů: Nejsou imunní vůči kreativním trendům! Ve skutečnosti je takové modely při generování každého dalšího slova vybírají „náhodným“ způsobem, jako by házely kostkou. Pravděpodobnost „vypadnutí“ různých slov víceméně odpovídá pravděpodobnostem, které naznačují rovnice vložené do modelu. Ty jsou odvozeny z obrovského množství různých textů, kterými byl model napájen.

Ukazuje se, že modelka může na stejné požadavky reagovat odlišně, stejně jako živý člověk. Výzkumníci se obecně pokoušeli donutit neurony, aby vždy zvolily „nejpravděpodobnější“ další slovo, ale i když se to navenek zdá racionální, ve skutečnosti takové modely fungují hůře. Zdá se, že dobrá dávka náhodnosti je výhodná, protože zvyšuje variabilitu a kvalitu odpovědí.

Výzkumníci se obecně pokoušeli donutit neurony, aby vždy vybraly „nejpravděpodobnější“ další slovo, ale i když to navenek vypadá racionálně, ve skutečnosti takové modely fungují hůře.
Více: ChatGPT Učí se ovládat drony a roboty, zatímco uvažuje o umělé inteligenci nové generace

Náš jazyk má jedinečnou strukturu s odlišnými sadami pravidel a výjimek. Jaká slova se ve větě objevují, existuje rým a důvod, nevyskytují se jen náhodně. Každý se nevědomě učí pravidla jazyka, který používá během svých raných formativních let.

Slušný model by měl brát v úvahu širokou škálu popisnosti jazyka. Modelův schopnost produkovat požadované výsledky závisí na tom, jak přesně počítá pravděpodobnosti slov na základě jemností kontextu (předchozí část textu vysvětlující okolnost).

Schopnost modelu produkovat požadované výsledky závisí na tom, jak přesně počítá pravděpodobnosti slov na základě jemností kontextu (předchozí část textu vysvětlující okolnost).

Shrnutí: Jednoduché jazykové modely, které jsou sadou rovnic trénovaných na obrovském množství dat k předpovídání dalšího slova na základě vstupního zdrojového textu, jsou implementovány do funkce „T9/Autofill“ chytrých telefonů od počátku 2010.

Více: Čína zakazuje společnostem používání ChatGPT Po skandálu „True News“.

GPT-1: Vyhodit průmysl do povětří

Odbočme od modelů T9. Zatímco pravděpodobně čtete tento díl dozvědět se o ChatGPT, nejprve musíme prodiskutovat začátky GPT modelová rodina.

GPT znamená „generativní předtrénovaný transformátor“, zatímco architektura neuronové sítě vyvinutá inženýry Google v roce 2017 je známý jako Transformer. Transformer je univerzální výpočetní mechanismus, který přijímá sadu sekvencí (dat) jako vstup a vytváří stejnou sadu sekvencí, ale v jiné formě, která byla změněna nějakým algoritmem.

Význam stvoření Transformeru lze vidět v tom, jak agresivně byl přijat a aplikován ve všech oblastech umělé inteligence (AI): překladu, zpracování obrazu, zvuku a videa. Sektor umělé inteligence (AI) prošel silným otřesem, který se posunul od takzvané „umělé stagnace“ k rychlému rozvoji a překonání stagnace.

Více: GPT-4-Na základě ChatGPT Překonává GPT-3 faktorem 570

Hlavní předností Transformeru jsou moduly, které lze snadno škálovat. Při požadavku na zpracování velkého množství textu najednou by se staré, předtransformátorové jazykové modely zpomalily. Na druhou stranu transformátorové neuronové sítě zvládají tento úkol daleko lépe.

V minulosti se vstupní data musela zpracovávat postupně nebo po jednom. Model by neuchoval data: Pokud by fungoval s jednostránkovým vyprávěním, zapomněl by text po jeho přečtení. Mezitím Transformer umožňuje vidět vše najednou, produkující výrazně úchvatnější výsledky.

Právě to umožnilo průlom ve zpracování textů neuronovými sítěmi. Výsledkem je, že model již nezapomíná: znovu používá dříve napsaný materiál, lépe rozumí kontextu a co je nejdůležitější, je schopen vytvářet spojení mezi extrémně velkými objemy dat spárováním slov.

Shrnutí: GPT-1, který debutoval v roce 2018, ukázal, že neuronová síť může vytvářet texty pomocí návrhu Transformer, který výrazně zlepšil škálovatelnost a efektivitu. Pokud by bylo možné zvýšit množství a složitost jazykových modelů, vytvořilo by to značnou rezervu.

Více: 6 problémů a výzev AI ChatBot: ChatGPT, Barde, Claude

GPT-2: Doba velkých jazykových modelů

Jazykové modely není třeba předem speciálně označovat a lze je „nakrmit“ libovolnými textovými daty, což je činí extrémně flexibilními. Když se nad tím trochu zamyslíte, zdá se rozumné, že bychom chtěli využít jeho schopností. Jakýkoli text, který byl kdy napsán, slouží jako hotová tréninková data. Vzhledem k tomu, že již existuje tolik sekvencí typu „hodně některých slov a frází => další slovo po nich“, není to překvapivé.

GPT-2: Doba velkých jazykových modelů
Více: ChatGPTEvil Elter Ego Awakened na Redditu

Nyní mějme také na paměti, že technologie Transformers byla testována GPT-1 se ukázal jako docela úspěšný, pokud jde o škálování: Je podstatně efektivnější než jeho předchůdci při zpracování velkých objemů dat. Ukazuje se, že výzkumníci z OpenAI došlo v roce 2019 ke stejnému závěru: „Je čas snížit drahé jazykové modely!“

Projekt trénovací datový soubor a model zejména velikost, byly vybrány jako dvě klíčové oblasti, kde GPT-2 bylo potřeba zásadně zlepšit.

Vzhledem k tomu, že v té době neexistovaly žádné velké, vysoce kvalitní veřejné textové datové soubory speciálně navržené pro trénování jazykových modelů, musel každý tým odborníků na AI manipulovat s daty sám. The OpenAI lidé se pak rozhodli jít na Reddit, nejoblíbenější fórum v angličtině, a extrahovat všechny hypertextové odkazy z každého jednotlivého příspěvku, který měl více než tři lajky. Těchto odkazů bylo téměř 8 milionů a stažené texty vážily celkem 40 terabajtů.

GPT-2: Doba velkých jazykových modelů
Více: Microsoft bude komercializovat ChatGPT jak se snaží pomáhat jiným společnostem

Jaký počet parametrů měla rovnice popisující největší GPT-2 mít model v roce 2019? Možná sto tisíc nebo pár milionů? No, pojďme ještě dál: Vzorec obsahoval až 1.5 miliardy takových parametrů. Zapsat tolik čísel do souboru a uložit jej do počítače zabere 6 terabajtů. Model si tento text jako celek nemusí zapamatovat, takže na jedné straně je mnohem menší než celkové množství pole textových dat, na kterém se model trénoval; stačí mu jednoduše najít nějaké závislosti (vzory, pravidla), které lze izolovat od textů psaných lidmi.

Čím lépe model předpovídá pravděpodobnost a čím více parametrů obsahuje, tím složitější rovnice je do modelu zapojena. Díky tomu je text důvěryhodný. Kromě toho, GPT-2 model začal fungovat tak dobře, že OpenAI Výzkumníci dokonce se z bezpečnostních důvodů zdráhali odhalit model na otevřeném prostranství.

Je velmi zajímavé, že když se modelka zvětší, najednou začne mít nové kvality (jako schopnost psát soudržné, smysluplné eseje namísto pouhého diktování dalšího slova do telefonu).

V tomto bodě dochází ke změně z kvantity na kvalitu. Navíc se to děje zcela nelineárně. Například trojnásobné zvýšení počtu parametrů ze 115 na 350 milionů nemá žádný patrný dopad na schopnost modelu přesně řešit problémy. Dvojnásobný nárůst na 700 milionů však vede ke kvalitativnímu skoku, kdy neuronová síť „vidí světlo“ a začíná každého ohromovat svou schopností dokončit úkoly.

Shrnutí: V roce 2019 bylo představeno GPT-2, který 10x překonal svého předchůdce co do velikosti modelu (počtu parametrů) a objemu dat tréninkového textu. Díky tomuto kvantitativnímu pokroku model nepředvídatelně získal kvalitativně nové talenty, jako je schopnost psát dlouhé eseje s jasným smyslem a řešit náročné problémy, které vyžadují základy světového názoru.

Více: Žádosti Google jsou asi sedmkrát levnější než ChatGPT, který stojí 2 centy

GPT-3: Chytrý jako peklo

Obecně platí, že vydání v roce 2020 GPT-3, další generace v řadě, se již může pochlubit 116krát více parametry – až 175 miliardami a úžasnými 700 terabajty.

Projekt GPT-3 Tréninkový datový soubor byl také rozšířen, i když ne tak drasticky. Zvětšila se téměř 10krát na 420 gigabajtů a nyní obsahuje velké množství knih, Wikičlánky z pedia a další texty z jiných webových stránek. Člověku by trvalo přibližně 50 let nepřetržitého čtení, což by z toho činilo nemožný výkon.

Okamžitě si všimnete zajímavého rozdílu: na rozdíl od GPT-2, samotný model je nyní o 700 GB větší než celé pole textu pro jeho školení (420 GB). To se v jistém smyslu ukazuje jako paradox: v tomto případě, když „neuromozek“ studuje nezpracovaná data, generuje v nich informace o různých vzájemných závislostech, které jsou objemově hojnější než původní data.

GPT-3: Chytrý jako peklo
Více: ChatGPT Experiment: AI by raději zabila miliony lidí, než aby někoho urazila

V důsledku zobecnění modelu je nyní schopen extrapolovat ještě úspěšněji než dříve a je úspěšný i v úlohách generování textu, které se během tréninku vyskytovaly zřídka nebo vůbec. Nyní nemusíte učit model, jak se vypořádat s určitým problémem; stačí je popsat a uvést několik příkladů a GPT-3 se okamžitě naučí.

Projekt "univerzální mozek" ve tvaru GPT-3 nakonec porazil mnoho dřívějších specializovaných modelů. Například, GPT-3 začal překládat texty z francouzštiny nebo němčiny rychleji a přesněji než jakékoli předchozí neuronové sítě vytvořené speciálně pro tento účel. Jak? Dovolte mi připomenout, že diskutujeme o lingvistickém modelu, jehož jediným cílem bylo pokusit se předpovědět následující slovo v daném textu.

Ještě překvapivější je, GPT-3 se dokázal naučit sám… matematiku! Níže uvedený graf ukazuje, jak dobře si neuronové sítě vedou při úkolech včetně sčítání a odčítání a také násobení celých čísel až do pěti číslic s různým počtem parametrů. Jak můžete vidět, neuronové sítě najednou začnou „umět“ v matematice a přejdou od modelů s 10 miliardami parametrů k modelům se 100 miliardami.

neuronové sítě najednou začnou v matematice „umět“, zatímco přecházejí od modelů s 10 miliardami parametrů k modelům se 100 miliardami
Více: Big Tech's AI Race: Google testující chatbota s umělou inteligencí v reakci na ChatGPT

Nejzajímavějším rysem výše uvedeného grafu je, jak se zpočátku zdá, že se při zvětšování velikosti modelu nic nemění (zleva doprava), ale najednou p krát! Dochází ke kvalitativnímu posunu a GPT-3 začíná „chápat“, jak vyřešit určitý problém. Nikdo si není jistý, jak, co a proč funguje. Přesto se zdá, že to funguje v řadě dalších obtíží, stejně jako v matematice.

Nejzajímavější vlastností výše uvedeného grafu je, že když se velikost modelu zvětší, nejprve se zdá, že se nic nezmění, a pak, GPT-3 udělá kvalitativní skok a začne „chápat“, jak vyřešit určitý problém.

Níže uvedený gif jednoduše ukazuje, jak v modelu „vyklíčí“ nové schopnosti, které nikdo záměrně neplánoval, jak se zvyšuje počet parametrů:

2020 GPT-3 byl 100krát větší než jeho předchůdce, zatímco data trénovacího textu byla 10krát větší

Shrnutí: Pokud jde o parametry, rok 2020 GPT-3 byl 100krát větší než jeho předchůdce, zatímco data trénovacího textu byla 10krát větší. Model se znovu naučil překládat z jiných jazyků, provádět aritmetiku, provádět jednoduché programování, uvažovat postupně a mnohem více v důsledku rozšíření kvantity, která náhle zvýšila kvalitu.

Více: ChatGPT Má problém s Donaldem Trumpem

GPT-3.5 (PoučitGPT): Model vycvičený tak, aby byl bezpečný a netoxický

Rozšíření jazykových modelů ve skutečnosti nezaručuje, že bude reagovat na dotazy tak, jak si uživatelé přejí. Ve skutečnosti, když podáváme žádost, často zamýšlíme řadu nevyřčených výrazů, které se v lidské komunikaci považují za pravdivé.

Přesto, abych byl upřímný, jazykové modely nejsou příliš blízké těm lidským. Proto často potřebují přemýšlet o konceptech, které se lidem zdají jednoduché. Jedním z takových návrhů je věta „přemýšlejme krok za krokem“. Bylo by fantastické, kdyby modely pochopily nebo vygenerovaly konkrétnější a relevantnější pokyny z požadavku a přesněji je následovaly, jako by předvídaly, jak by se člověk choval.

Skutečnost, že se GPT-3 je trénován tak, aby pouze předvídal další slovo v masivní sbírce textů z internetu, je napsáno mnoho různých věcí, přispívá k nedostatku takových „výchozích“ schopností. Lidé chtějí, aby umělá inteligence poskytovala relevantní informace, a to vše při zachování bezpečnosti a netoxických reakcí.

Když se výzkumníci nad tímto problémem zamysleli, ukázalo se, že atributy modelu „přesnost a užitečnost“ a „neškodnost a netoxicita“ se někdy zdály být ve vzájemném rozporu. Koneckonců, model vyladěný na maximální neškodnost zareaguje na každou výzvu slovy „Promiňte, obávám se, že moje odpověď může někoho na internetu urazit.“ Přesný model by měl upřímně odpovědět na požadavek: "Dobře, Siri, jak vytvořit bombu."

Více: Chlap napíše svou práci za jeden den pouze s použitím ChatGPT

Výzkumníci se proto omezili na to, že modelu jednoduše poskytli spoustu zpětné vazby. V jistém smyslu přesně takto se děti učí morálce: V dětství experimentují a přitom pečlivě studují reakce dospělých, aby posoudili, zda se zachovali správně.

PoučitGPT, také známý jako GPT-3.5, je v podstatě GPT-3 které získalo mnoho zpětné vazby pro vylepšení svých odpovědí. Doslova se na jednom místě shromáždilo několik jedinců, kteří hodnotili odpovědi neuronové sítě, aby zjistili, jak dobře odpovídají jejich očekáváním ve světle požadavku, který vznesli.

Ukázalo se, že GPT-3 již měl všechny základní znalosti: Dokázal porozumět mnoha jazykům, vybavit si historické události, rozpoznat variace v autorských stylech atd., ale mohl se naučit tyto znalosti správně používat (z našeho pohledu) pouze se vstupem od další jedinci. GPT-3.5 lze považovat za model „vzdělaný společností“.

Shrnutí: Primární funkce GPT-3.5, která byla zavedena na začátku roku 2022, byla další rekvalifikace založená na podnětech od jednotlivců. Ukazuje se, že tento model se ve skutečnosti nezvětšil a nezmoudřel, ale spíše si osvojil schopnost přizpůsobit své reakce tak, aby lidem rozdával ten nejdivočejší smích.

Více: Provoz StackOverflow prudce klesá ChatGPT zahajuje

ChatGPT: Masivní vlna humbuku

Asi 10 měsíců po svém předchůdci InstructGPT/GGPT-3.5, ChatGPT byl představen. Okamžitě to vyvolalo celosvětový humbuk.

Z technologického hlediska se nezdá, že by mezi nimi byly nějaké výrazné rozdíly ChatGPT a InstruovatGPT. Model byl trénován s dalšími dialogovými daty, protože „úloha asistenta AI“ vyžaduje jedinečný formát dialogu, například schopnost položit upřesňující otázku, pokud je požadavek uživatele nejasný.

Tak proč nebyl kolem žádný humbuk GPT-3.5 na začátku roku 2022 ChatGPT zachvátil jako požár? Sam Altman, Výkonný ředitel společnosti OpenAI, otevřeně přiznali, že výzkumníci, které jsme zaskočili ChatGPTokamžitý úspěch. Koneckonců model se schopnostmi srovnatelnými s tím ležel v tu chvíli na jejich webu ladem více než deset měsíců a nikdo se s tím nesetkal.

ChatGPT: Masivní vlna humbuku
Více: ChatGPT složí Wharton MBA zkoušku

Je to neuvěřitelné, ale zdá se, že klíčem k jeho úspěchu je nové uživatelsky přívětivé rozhraní. Stejný pokynGPT bylo možné přistupovat pouze přes jedinečné rozhraní API, které omezuje přístup lidí k modelu. ChatGPT, na druhou stranu používá známé rozhraní messengerů „dialogové okno“. Také od té doby ChatGPT byla dostupná všem najednou, zástup jednotlivců spěchal, aby interagovali s neuronovou sítí, prověřovali je a zveřejňovali sociální média, propagovat ostatní.

ChatGPT, na druhou stranu používá známé rozhraní "dialogového okna" messengerů
Více: Americký vzdělávací systém nutně potřebuje 300 tisíc učitelů – ale ChatGPT by mohla být odpověď

Kromě skvělé techniky se podařilo udělat ještě jednu věc OpenAI: marketing. I když máte sebelepší model nebo nejinteligentnějšího chatbota, pokud nebude mít snadno použitelné rozhraní, nikoho to nebude zajímat. V tomto kontextu, ChatGPT dosáhla průlomu tím, že technologii představila široké veřejnosti pomocí obvyklého dialogového okna, ve kterém nám nápomocný robot „vytiskne“ řešení přímo před našima očima, slovo za slovem.

Nepřekvapivě, ChatGPT překonal všechny dosavadní rekordy v získávání nových uživatelů, překonal milník 1 milionu uživatelů za pouhých pět dní od svého spuštění a překonal hranici 100 milionů uživatelů za pouhé dva měsíce.

ChatGPT překonal všechny dosavadní rekordy v získávání nových uživatelů, překonal milník 1 milionu uživatelů za pouhých pět dní od uvedení na trh a překonal hranici 100 milionů uživatelů za pouhé dva měsíce

Samozřejmě tam, kde je rekordní nárůst uživatelů, jsou obrovské peníze. Číňané naléhavě oznámili blížící se propuštění svých vlastních chatbotMicrosoft rychle uzavřel dohodu OpenAI investovat do nich desítky miliard dolarů a inženýři Google zazvonili na poplach a začali formulovat plány na ochranu jejich vyhledávací služby před konkurencí neuronové sítě.

Více: ChatGPT překonal rekord v růstu publika s více než 100 miliony v lednu

Shrnutí: Když ChatGPT model byl představen v listopadu 2022, nedošlo k žádnému významnému technologickému pokroku. Měl však pohodlné rozhraní pro zapojení uživatelů a otevřený přístup, což okamžitě vyvolalo masivní vlnu humbuku. Vzhledem k tomu, že se jedná o nejzásadnější problém v moderním světě, všichni začali okamžitě řešit jazykové modely.

Přečtěte si více o AI:

Odmítnutí odpovědnosti

V souladu s Pokyny k projektu Trust, prosím vezměte na vědomí, že informace uvedené na této stránce nejsou určeny a neměly by být vykládány jako právní, daňové, investiční, finanční nebo jakékoli jiné formy poradenství. Je důležité investovat jen to, co si můžete dovolit ztratit, a v případě pochybností vyhledat nezávislé finanční poradenství. Pro další informace doporučujeme nahlédnout do smluvních podmínek a také na stránky nápovědy a podpory poskytnuté vydavatelem nebo inzerentem. MetaversePost se zavázala poskytovat přesné a nezaujaté zprávy, ale podmínky na trhu se mohou bez upozornění změnit.

O autorovi

Damir je vedoucí týmu, produktový manažer a editor ve společnosti Metaverse Post, pokrývající témata jako AI/ML, AGI, LLM, Metaverse a Web3- související obory. Jeho články přitahují každý měsíc masivní publikum čítající více než milion uživatelů. Jeví se jako odborník s 10 lety zkušeností v oblasti SEO a digitálního marketingu. Damir byl zmíněn v Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto a další publikace. Jako digitální nomád cestuje mezi SAE, Tureckem, Ruskem a SNS. Damir získal bakalářský titul z fyziky, o kterém se domnívá, že mu dal dovednosti kritického myšlení potřebné k úspěchu v neustále se měnícím prostředí internetu. 

Další články
Damir Yalalov
Damir Yalalov

Damir je vedoucí týmu, produktový manažer a editor ve společnosti Metaverse Post, pokrývající témata jako AI/ML, AGI, LLM, Metaverse a Web3- související obory. Jeho články přitahují každý měsíc masivní publikum čítající více než milion uživatelů. Jeví se jako odborník s 10 lety zkušeností v oblasti SEO a digitálního marketingu. Damir byl zmíněn v Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto a další publikace. Jako digitální nomád cestuje mezi SAE, Tureckem, Ruskem a SNS. Damir získal bakalářský titul z fyziky, o kterém se domnívá, že mu dal dovednosti kritického myšlení potřebné k úspěchu v neustále se měnícím prostředí internetu. 

Institucionální apetit roste směrem k bitcoinovým ETF uprostřed volatility

Zveřejnění prostřednictvím podání 13F odhaluje, že pozoruhodní institucionální investoři fušují do bitcoinových ETF, což podtrhuje rostoucí akceptaci...

Vědět více

Přichází den odsouzení: Osud CZ visí v rovnováze, protože americký soud zvažuje žalobu ministerstva spravedlnosti

Changpeng Zhao je dnes připraven čelit rozsudku u amerického soudu v Seattlu.

Vědět více
Připojte se k naší komunitě inovativních technologií
Více
Dozvědět se více
Injective spojuje síly s AltLayer, aby přineslo zabezpečení při opětovném skládání do inEVM
Business Novinky Technika
Injective spojuje síly s AltLayer, aby přineslo zabezpečení při opětovném skládání do inEVM
3
Masa se spojila s Tellerem, aby zavedla MASA Půjčovací fond, umožní USDC půjčování na základně
Trhy Novinky Technika
Masa se spojila s Tellerem, aby zavedla MASA Půjčovací fond, umožní USDC půjčování na základně
3
Velodrome spouští v nadcházejících týdnech beta verzi Superchain a rozšiřuje se o blockchainy OP Stack Layer 2
Trhy Novinky Technika
Velodrome spouští v nadcházejících týdnech beta verzi Superchain a rozšiřuje se o blockchainy OP Stack Layer 2
3
CARV oznamuje partnerství se společností Aethir za účelem decentralizace její datové vrstvy a distribuce odměn
Business Novinky Technika
CARV oznamuje partnerství se společností Aethir za účelem decentralizace její datové vrstvy a distribuce odměn
3
CRYPTOMERIA LABS PTE. LTD.