Novinová správa Technológia
March 09, 2023

Evolúcia chatbotov z éry T9 a GPT-1 na ChatGPT

V poslednej dobe sme takmer každý deň bombardovaní spravodajskými príspevkami o najnovších rekordoch prekonaných rozsiahlymi neurónovými sieťami a o tom, prečo nie je práca takmer nikoho bezpečná. Napriek tomu si len veľmi málo ľudí uvedomuje, ako sa páčia neurónové siete ChatGPT skutočne fungovať.

Takže relax. Zatiaľ nelamentujte nad svojimi pracovnými vyhliadkami. V tomto príspevku vysvetlíme všetko, čo je potrebné vedieť o neurónových sieťach tak, aby to každý pochopil.

Evolúcia chatbotov z éry T9 a GPT-1 na ChatGPT a Bart

Upozornenie predtým, ako začneme: Tento diel je spoluprácou. Celú technickú časť napísal špecialista na AI, ktorý je medzi AI známymi.

Keďže zatiaľ nikto nenapísal podrobný článok o tom, ako ChatGPT diela, ktoré by laicky vysvetlili zákutia neurónových sietí, rozhodli sme sa to urobiť za vás. Snažili sme sa, aby bol tento príspevok čo najjednoduchší, aby čitatelia mohli vychádzať z čítania tohto príspevku so všeobecným pochopením princípov jazykových neurónových sietí. Preskúmame ako jazykové modely tam pracujú, ako sa neurónové siete vyvinuli, aby získali svoje súčasné schopnosti a prečo ChatGPTVýbušná popularita prekvapila aj jeho tvorcov.

Začnime so základmi. Rozumieť ChatGPT z technického hľadiska musíme najprv pochopiť, čo to nie je. Toto nie je Jarvis z Marvel Comics; nie je to racionálna bytosť; nie je to džin. Pripravte sa na šok: ChatGPT je vlastne T9 vášho mobilu na steroidoch! Áno, je to tak: Vedci označujú obe tieto technológie ako „jazykové modely“. Všetko, čo neurónové siete robia, je hádať, aké slovo by malo nasledovať.

Pôvodná technológia T9 zrýchlila iba tlačidlové vytáčanie telefónu tým, že namiesto nasledujúceho slova uhádlo aktuálny vstup. Technológia však pokročila a v ére smartfónov na začiatku roku 2010 dokázala zvážiť kontext a slovo predtým, pridať interpunkciu a ponúknuť výber slov, ktoré by mohli nasledovať. To je presne analógia, ktorú robíme s takouto „pokročilou“ verziou T9 alebo autocorrectom.

Výsledkom je, že T9 na klávesnici smartfónu a ChatGPT boli vyškolení na riešenie smiešne jednoduchej úlohy: predpovedanie nasledujúceho slova. Toto je známe ako „jazykové modelovanie“ a vyskytuje sa, keď sa rozhoduje o tom, čo by sa malo napísať ďalej na základe existujúceho textu. Jazykové modely musia fungovať na základe pravdepodobnosti výskytu konkrétnych slov, aby mohli robiť takéto predpovede. Naštvalo by vás totiž, keby vám automatické dopĺňanie telefónu s rovnakou pravdepodobnosťou vyhodilo úplne náhodné slová.

Pre názornosť si predstavme, že dostanete správu od priateľa. Hovorí: "Aké máš plány na večer?" V odpovedi začnete písať: „Idem to...“ a tu prichádza na rad T9. Môže prísť s úplne nezmyselnými vecami ako „Idem na Mesiac“, nie je potrebný žiadny zložitý jazykový model. Dobré modely smartfónov s automatickým dopĺňaním naznačujú oveľa relevantnejšie slová.

Ako teda T9 vie, ktoré slová s väčšou pravdepodobnosťou nasledujú za už napísaným textom a ktoré zjavne nedávajú zmysel? Na zodpovedanie tejto otázky musíme najprv preskúmať základné princípy fungovania tých najjednoduchších neurálne siete.

Viac: ChatGPT Rozhranie API je teraz k dispozícii, otvára bránu pre vývojárov

Ako modely AI predpovedajú ďalšie slovo

Začnime jednoduchšou otázkou: Ako predpovedáte vzájomnú závislosť niektorých vecí od iných? Predpokladajme, že chceme naučiť počítač predpovedať váhu človeka na základe jeho výšky – ako by sme to mali urobiť? Najprv by sme mali identifikovať oblasti záujmu a potom zhromaždiť údaje, na ktorých by sme hľadali závislosti záujmu a potom sa pokúsiť „trénovať“ nejaký matematický model hľadať vzory v týchto údajoch.

Ako modely AI predpovedajú ďalšie slovo

Zjednodušene povedané, T9 resp ChatGPT sú len šikovne zvolené rovnice, ktoré sa o to pokúšajú predpovedať slovo (Y) založené na množine predchádzajúcich slov (X) privádzaných do vstupu modelu. Pri tréningu a jazykový model na množine údajov je hlavnou úlohou vybrať koeficienty pre tieto x, ktoré skutočne odrážajú nejaký druh závislosti (ako v našom príklade s výškou a hmotnosťou). A pri veľkých modeloch lepšie pochopíme tie s veľkým množstvom parametrov. V oblasti umelá inteligencia, označujú sa ako veľké jazykové modely alebo skrátene LLM. Ako uvidíme neskôr, veľký model s mnohými parametrami je nevyhnutný na generovanie dobrého textu.

Mimochodom, ak vás zaujíma, prečo neustále hovoríme o „predpovedaní jedného ďalšieho slova“. ChatGPT rýchlo reaguje celými odsekmi textu, odpoveď je jednoduchá. Iste, jazykové modely dokážu bez problémov generovať dlhé texty, ale celý proces prebieha slovo po slove. Po vygenerovaní každého nového slova model jednoducho znova spustí celý text s novým slovom, aby sa vygenerovalo ďalšie slovo. Proces sa opakuje znova a znova, kým nedostanete celú odpoveď.

Viac: ChatGPT Môže spôsobiť nezvratnú ľudskú degeneráciu

Prečo sa stále snažíme nájsť „správne“ slová pre daný text?

Jazykové modely sa pokúšajú predpovedať pravdepodobnosti rôznych slov, ktoré sa môžu vyskytnúť v danom texte. Prečo je to potrebné a prečo nemôžete stále hľadať to „najsprávnejšie“ slovo? Skúsme si jednoduchou hrou ilustrovať, ako tento proces funguje.

Pravidlá sú nasledovné: Navrhujem, aby ste pokračovali vo vete: „44. prezidentom Spojených štátov amerických (a prvým Afroameričanom v tejto pozícii) je Barak...“. Aké slovo by malo nasledovať? Aká je pravdepodobnosť, že sa to stane?

Prečo sa stále snažíme nájsť „správne“ slová pre daný text?

Ak ste so 100% istotou predpovedali, že ďalšie slovo bude „Obama“, mýlili ste sa! A tu nejde o to, že je tu ďalší mýtický Barak; je to oveľa triviálnejšie. Oficiálne dokumenty zvyčajne používajú celé meno prezidenta. To znamená, že to, čo nasleduje po Obamovom krstnom mene, by bolo jeho druhé meno, Hussein. Takže v našej vete by mal správne vyškolený jazykový model predpovedať, že „Obama“ bude ďalším slovom len s podmienenou pravdepodobnosťou 90 % a zvyšných 10 % prideliť, ak bude text pokračovať „Hussein“ (po ktorom Obama nasledovať s pravdepodobnosťou blízkou 100 %).

A teraz sa dostávame k zaujímavému aspektu jazykových modelov: Nie sú imúnne voči kreatívnym sériám! V skutočnosti pri generovaní každého ďalšieho slova ho takéto modely vyberajú „náhodným“ spôsobom, ako keby hádzali kockou. Pravdepodobnosť, že rôzne slová „vypadnú“ viac-menej zodpovedajú pravdepodobnostiam, ktoré naznačujú rovnice vložené do modelu. Tie sú odvodené z obrovskej škály rôznych textov, ktorými bol model kŕmený.

Ukazuje sa, že modelka môže na rovnaké požiadavky reagovať inak, rovnako ako živý človek. Výskumníci sa vo všeobecnosti pokúšali prinútiť neuróny, aby vždy vybrali „najpravdepodobnejšie“ nasledujúce slovo, no hoci sa to na prvý pohľad zdá racionálne, v skutočnosti takéto modely fungujú horšie. Zdá sa, že poriadna dávka náhodnosti je výhodná, pretože zvyšuje variabilitu a kvalitu odpovedí.

Výskumníci sa vo všeobecnosti pokúšali prinútiť neuróny, aby vždy vybrali „najpravdepodobnejšie“ nasledujúce slovo, no hoci sa to na prvý pohľad zdá racionálne, v skutočnosti takéto modely fungujú horšie.
Viac: ChatGPT Učí sa ovládať drony a roboty, keď uvažuje o umelej inteligencii novej generácie

Náš jazyk má jedinečnú štruktúru s odlišnými súbormi pravidiel a výnimiek. To, aké slová sa objavia vo vete, má rým a dôvod, nevyskytujú sa len náhodne. Každý si nevedome osvojuje pravidlá jazyka, ktorý používa počas prvých rokov formovania.

Slušný model by mal zohľadňovať široký rozsah popisnosti jazyka. Modelkove schopnosť produkovať požadované výsledky závisí od toho, ako presne vypočíta pravdepodobnosti slov na základe jemností kontextu (predchádzajúca časť textu vysvetľujúca okolnosť).

Schopnosť modelu produkovať požadované výsledky závisí od toho, ako presne vypočítava pravdepodobnosti slov na základe jemností kontextu (predchádzajúca časť textu vysvetľujúca okolnosť).

Zhrnutie: Jednoduché jazykové modely, ktoré sú súborom rovníc natrénovaných na obrovskom množstve údajov na predpovedanie ďalšieho slova na základe vstupného zdrojového textu, sú implementované do funkcie „T9/Automatické dopĺňanie“ smartfónov od začiatku 2010-tych rokov.

Viac: Čína zakazuje spoločnostiam používanie ChatGPT Po škandále „True News“.

GPT-1: Vyhodiť do vzduchu priemysel

Odstúpme od modelov T9. Zatiaľ čo pravdepodobne čítate tento článok dozvedieť sa o ChatGPT, najprv musíme prediskutovať začiatky GPT modelová rodina.

GPT znamená „generatívny predtrénovaný transformátor“, zatiaľ čo architektúra neurónovej siete vyvinutá inžiniermi Google v roku 2017 je známy ako Transformer. Transformátor je univerzálny výpočtový mechanizmus, ktorý akceptuje množinu sekvencií (údajov) ako vstup a vytvára rovnakú množinu sekvencií, ale v inej forme, ktorá bola zmenená nejakým algoritmom.

Význam stvorenia Transformera možno vidieť v tom, ako agresívne bol prijatý a aplikovaný vo všetkých oblastiach umelej inteligencie (AI): preklad, spracovanie obrazu, zvuku a videa. Sektor umelej inteligencie (AI) zaznamenal silné otrasy, ktoré sa posunuli od takzvanej „stagnácie AI“ k rýchlemu rozvoju a prekonaniu stagnácie.

Viac: GPT-4-Na základe ChatGPT prekonáva GPT-3 faktorom 570

Hlavná sila Transformera je tvorená modulmi, ktoré sa dajú ľahko škálovať. Pri požiadavke na spracovanie veľkého množstva textu naraz by sa staré, predtransformátorové jazykové modely spomalili. Na druhej strane transformátorové neurónové siete zvládajú túto úlohu oveľa lepšie.

V minulosti sa vstupné údaje museli spracovávať postupne alebo po jednom. Model by si neuložil údaje: Ak by fungoval s jednostranovým rozprávaním, po prečítaní by zabudol text. Transformer umožňuje vidieť všetko naraz, produkujúce výrazne ohromujúcejšie výsledky.

Práve to umožnilo prelom v spracovaní textov neurónovými sieťami. Výsledkom je, že model už nezabúda: znovu používa predtým napísaný materiál, lepšie rozumie kontextu a čo je najdôležitejšie, je schopný vytvárať spojenia medzi extrémne veľkými objemami údajov párovaním slov.

Zhrnutie: GPT-1, ktorý debutoval v roku 2018, ukázal, že neurónová sieť dokáže produkovať texty pomocou dizajnu Transformer, ktorý výrazne zlepšil škálovateľnosť a efektivitu. Ak by bolo možné zvýšiť množstvo a zložitosť jazykových modelov, vytvorilo by to značnú rezervu.

Viac: 6 problémov a výziev AI ChatBot: ChatGPT, Bard, Claude

GPT-2: Doba veľkých jazykových modelov

Jazykové modely nie je potrebné vopred špeciálne označovať a možno ich „nakŕmiť“ akýmikoľvek textovými údajmi, vďaka čomu sú mimoriadne flexibilné. Ak sa nad tým zamyslíte, zdá sa rozumné, že by sme chceli využiť jeho schopnosti. Akýkoľvek text, ktorý bol kedy napísaný, slúži ako hotové tréningové dáta. Keďže už existuje toľko sekvencií typu „veľa niektorých slov a fráz => ďalšie slovo po nich“, nie je to prekvapujúce.

GPT-2: Doba veľkých jazykových modelov
Viac: ChatGPTEvil Elter Ego sa prebudil na Reddite

Teraz tiež majme na pamäti, že technológia Transformers bola testovaná GPT-1 sa ukázal ako celkom úspešný z hľadiska škálovania: Je podstatne efektívnejší ako jeho predchodcovia pri spracovávaní veľkých objemov dát. Ukazuje sa, že výskumníci z OpenAI prišiel k rovnakému záveru v roku 2019: „Je čas znížiť drahé jazykové modely!“

tréningový dátový súbor a model ako dve kľúčové oblasti boli vybrané najmä veľkosť GPT-2 bolo potrebné výrazne zlepšiť.

Keďže v tom čase neexistovali žiadne veľké, vysokokvalitné súbory verejných textových údajov špeciálne navrhnuté na trénovanie jazykových modelov, každý tím odborníkov na AI musel s údajmi manipulovať sám. The OpenAI ľudia sa potom rozhodli ísť na Reddit, najpopulárnejšie fórum v anglickom jazyku, a extrahovať všetky hypertextové odkazy z každého jedného príspevku, ktorý mal viac ako tri lajky. Týchto odkazov bolo takmer 8 miliónov a stiahnuté texty vážili celkovo 40 terabajtov.

GPT-2: Doba veľkých jazykových modelov
Viac: Microsoft komercializovať ChatGPT ako sa snaží pomáhať iným spoločnostiam

Aký počet parametrov mala rovnica popisujúca najväčší GPT-2 mať model v roku 2019? Možno stotisíc alebo niekoľko miliónov? No poďme ešte ďalej: Vzorec obsahoval až 1.5 miliardy takýchto parametrov. Zapísať toľko čísel do súboru a uložiť ho do počítača bude trvať 6 terabajtov. Model si nemusí zapamätať tento text ako celok, takže na jednej strane je to oveľa menšie ako celkové množstvo poľa textových údajov, na ktorom sa model trénoval; stačí mu jednoducho nájsť nejaké závislosti (vzorce, pravidlá), ktoré sa dajú izolovať od textov napísaných ľuďmi.

Čím lepšie model predpovedá pravdepodobnosť a čím viac parametrov obsahuje, tým zložitejšia je rovnica v modeli. Vďaka tomu je text dôveryhodný. Okrem toho, GPT-2 model začal fungovať tak dobre, že OpenAI Výskumníci dokonca sa z bezpečnostných dôvodov zdráhali odhaliť model na otvorenom priestranstve.

Je veľmi zaujímavé, že keď sa model zväčší, zrazu začne mať nové kvality (napríklad schopnosť písať súdržné, zmysluplné eseje namiesto toho, aby len diktoval ďalšie slovo do telefónu).

V tomto bode nastáva zmena z kvantity na kvalitu. Navyše sa to deje úplne nelineárne. Napríklad trojnásobné zvýšenie počtu parametrov zo 115 na 350 miliónov nemá žiadny viditeľný vplyv na schopnosť modelu presne riešiť problémy. Dvojnásobný nárast na 700 miliónov však spôsobuje kvalitatívny skok, kde neurónová sieť „vidí svetlo“ a začína každého ohromovať svojou schopnosťou dokončiť úlohy.

Zhrnutie: V roku 2019 bola predstavená GPT-2, ktorý veľkosťou modelu (počet parametrov) a objemom dát tréningového textu 10-krát prekonal svojho predchodcu. Vďaka tomuto kvantitatívnemu pokroku model nepredvídateľne získal kvalitatívne nové talenty, ako napr. písať dlhé eseje s jasným významom a riešiť náročné problémy, ktoré si vyžadujú základy svetonázoru.

Viac: Žiadosti Google sú asi sedemkrát lacnejšie ako ChatGPT, Ktorý stojí 2 centy

GPT-3: Chytrý ako peklo

Vo všeobecnosti platí, že vydanie v roku 2020 GPT-3, ďalšia generácia v rade, sa už môže pochváliť 116-krát väčšími parametrami – až 175 miliárd a ohromujúcich 700 terabajtov.

GPT-3 Súbor tréningových údajov bol tiež rozšírený, aj keď nie tak drasticky. Zväčšil sa takmer 10-krát na 420 gigabajtov a teraz obsahuje veľké množstvo kníh, Wikičlánky z pedia a iné texty z iných webových stránok. Človeku by trvalo približne 50 rokov nepretržitého čítania, čo by z toho urobilo nemožný výkon.

Hneď si všimnete zaujímavý rozdiel: na rozdiel od toho GPT-2, samotný model je teraz o 700 GB väčší ako celé pole textu na jeho učenie (420 GB). To sa v istom zmysle ukazuje ako paradox: v tomto prípade, keď „neuromozog“ študuje nespracované údaje, generuje v nich informácie o rôznych vzájomných závislostiach, ktoré sú objemovo hojnejšie ako pôvodné údaje.

GPT-3: Chytrý ako peklo
Viac: ChatGPT Experiment: AI by radšej zabila milióny ľudí, ako by niekoho urazila

V dôsledku zovšeobecnenia modelu je teraz schopný extrapolovať ešte úspešnejšie ako predtým a je úspešný aj v úlohách generovania textu, ktoré sa počas tréningu vyskytovali zriedkavo alebo vôbec. Teraz nemusíte učiť model, ako riešiť určitý problém; stačí ich opísať a uviesť niekoľko príkladov a GPT-3 sa okamžite naučí.

"univerzálny mozog" v tvare GPT-3 nakoniec porazili mnohé skoršie špecializované modely. napr. GPT-3 začali prekladať texty z francúzštiny alebo nemčiny rýchlejšie a presnejšie ako akékoľvek predchádzajúce neurónové siete vytvorené špeciálne na tento účel. Ako? Dovoľte mi pripomenúť, že diskutujeme o lingvistickom modeli, ktorého jediným cieľom bolo pokúsiť sa predpovedať nasledujúce slovo v danom texte.

Ešte prekvapivejšie, GPT-3 bol schopný sám sa učiť... matematiku! Nižšie uvedený graf ukazuje, ako dobre fungujú neurónové siete pri úlohách vrátane sčítania a odčítania, ako aj násobenia celých čísel až do piatich číslic s rôznym počtom parametrov. Ako vidíte, neurónové siete zrazu začnú „umieť“ v matematike, pričom prechádzajú od modelov s 10 miliardami parametrov k modelom so 100 miliardami.

neurónové siete zrazu začnú „umieť“ v matematike, pričom prejdú od modelov s 10 miliardami parametrov k modelom so 100 miliardami
Viac: Big Tech's AI Race: Google testuje chatbota poháňaného AI v reakcii na ChatGPT

Najzaujímavejšou črtou vyššie uvedeného grafu je, že spočiatku sa zdá, že sa nič nemení, keď sa veľkosť modelu zväčšuje (zľava doprava), ale zrazu p-krát! Nastáva kvalitatívny posun a GPT-3 začína „chápať“, ako vyriešiť určitý problém. Nikto si nie je istý, ako, čo a prečo funguje. Zdá sa však, že to funguje v rôznych iných ťažkostiach, ako aj v matematike.

Najzaujímavejšou vlastnosťou vyššie uvedeného grafu je, že keď sa veľkosť modelu zväčší, najprv sa zdá, že sa nič nemení, a potom, GPT-3 urobí kvalitatívny skok a začne „chápať“, ako vyriešiť určitý problém.

Gif nižšie jednoducho ukazuje, ako v modeli „vyklíčia“ nové schopnosti, ktoré nikto úmyselne neplánoval, keď sa počet parametrov zvyšuje:

2020 GPT-3 bol 100-krát väčší ako jeho predchodca, zatiaľ čo údaje trénovacieho textu boli 10-krát väčšie

Zhrnutie: Pokiaľ ide o parametre, rok 2020 GPT-3 bol 100-krát väčší ako jeho predchodca, zatiaľ čo údaje trénovacieho textu boli 10-krát väčšie. Model sa opäť naučil prekladať z iných jazykov, vykonávať aritmetiku, vykonávať jednoduché programovanie, sekvenčne uvažovať a oveľa viac v dôsledku rozšírenia množstva, ktoré náhle zvýšilo kvalitu.

Viac: ChatGPT Má problém s Donaldom Trumpom

GPT-3.5 (PokynGPT): Model vyškolený tak, aby bol bezpečný a netoxický

Rozširujúce sa jazykové modely v skutočnosti nezaručujú, že bude reagovať na otázky tak, ako si to používatelia želajú. V skutočnosti, keď požiadame, často zamýšľame niekoľko nevyslovených výrazov, ktoré sa v ľudskej komunikácii považujú za pravdivé.

Úprimne povedané, jazykové modely nie sú veľmi blízke tým ľudským. Preto často potrebujú premýšľať o konceptoch, ktoré sa ľuďom zdajú jednoduché. Jedným z takýchto návrhov je veta: „Premýšľajme krok za krokom“. Bolo by fantastické, keby modely pochopili alebo vygenerovali konkrétnejšie a relevantnejšie pokyny z požiadavky a riadili sa nimi presnejšie, akoby predvídali, ako by sa človek zachoval.

Skutočnosť, že GPT-3 je trénovaný len predvídať ďalšie slovo v masívnej zbierke textov z internetu, píše sa veľa rôznych vecí, čo prispieva k nedostatku takýchto „predvolených“ schopností. Ľudia chcú, aby umelá inteligencia poskytovala relevantné informácie, a to všetko pri zachovaní bezpečnosti a netoxických reakcií.

Keď sa vedci nad týmto problémom zamysleli, ukázalo sa, že atribúty modelu „presnosť a užitočnosť“ a „neškodnosť a netoxicita“ sa niekedy zdali byť vo vzájomnom rozpore. Koniec koncov, model vyladený na maximálnu neškodnosť zareaguje na každú výzvu: „Prepáčte, obávam sa, že moja odpoveď môže niekoho na internete uraziť.“ Presný model by mal úprimne odpovedať na požiadavku: "Dobre, Siri, ako vytvoriť bombu."

Viac: Chlap napíše svoju prácu za jeden deň iba s použitím ChatGPT

Výskumníci sa preto obmedzili len na to, aby modelu poskytli veľa spätnej väzby. V istom zmysle presne takto sa deti učia morálke: V detstve experimentujú a zároveň pozorne študujú reakcie dospelých, aby posúdili, či sa zachovali správne.

PoučiťGPT, taktiež známy ako GPT-3.5, je v podstate GPT-3 ktorý získal veľa spätnej väzby na zlepšenie svojich odpovedí. Doslova sa na jednom mieste zhromaždilo množstvo jednotlivcov, ktorí hodnotili odpovede neurónovej siete, aby zistili, do akej miery zodpovedajú ich očakávaniam vo svetle žiadosti, ktorú predložili.

Ukazuje sa, že GPT-3 už má všetky podstatné znalosti: vedel porozumieť mnohým jazykom, spomenúť si na historické udalosti, rozpoznať variácie v autorských štýloch atď. iné osoby. GPT-3.5 možno považovať za model „vzdelávaný v spoločnosti“.

Zhrnutie: Primárna funkcia GPT-3.5, ktorý bol zavedený začiatkom roku 2022, bola dodatočná rekvalifikácia na základe podnetov od jednotlivcov. Ukazuje sa, že tento model sa v skutočnosti nestal väčším a múdrejším, ale skôr si osvojil schopnosť prispôsobiť svoje reakcie tak, aby sa ľudia smiali najdivokejšie.

Viac: Návštevnosť StackOverflow prudko klesá ChatGPT zahajuje

ChatGPT: Obrovský nárast humbuku

Asi 10 mesiacov po svojom predchodcovi InstructGPT/GGPT-3.5, ChatGPT bol predstavený. Okamžite to vyvolalo celosvetový humbuk.

Z technologického hľadiska sa nezdá, že by medzi nimi boli nejaké výrazné rozdiely ChatGPT a InštruovaťGPT. Model bol trénovaný s ďalšími dialógovými údajmi, pretože „úloha asistenta AI“ vyžaduje jedinečný formát dialógu, napríklad schopnosť položiť objasňujúcu otázku, ak je požiadavka používateľa nejasná.

Tak prečo nebol okolo žiadny humbuk GPT-3.5 začiatkom roka 2022 ChatGPT zachvátený ako požiar? Sam Altman, Výkonný riaditeľ spoločnosti OpenAI, otvorene priznal, že výskumníkov, ktorých sme zaskočili ChatGPTokamžitý úspech. Koniec koncov, model so schopnosťami porovnateľnými s tým ležal v tom čase na ich webovej stránke nečinný už viac ako desať mesiacov a nikto na to nemal.

ChatGPT: Obrovský nárast humbuku
Viac: ChatGPT zloží Wharton MBA skúšku

Je to neuveriteľné, ale zdá sa, že kľúčom k jeho úspechu je nové užívateľsky prívetivé rozhranie. Ten istý PokynGPT bolo možné pristupovať iba cez jedinečné rozhranie API, ktoré obmedzuje prístup ľudí k modelu. ChatGPT, na druhej strane používa známe rozhranie „dialógového okna“ messengerov. Tiež od r ChatGPT bola dostupná všetkým naraz, zástup jednotlivcov sa ponáhľal interagovať s neurónovou sieťou, preveriť ich a uverejniť sociálne médiá, propagovať ostatných.

ChatGPT, na druhej strane používa známe rozhranie messengerov „dialógové okno“.
Viac: Americký vzdelávací systém nutne potrebuje 300 XNUMX učiteľov – ale ChatGPT by mohla byť odpoveď

Okrem skvelej techniky bola spravená aj ďalšia vec OpenAI: marketing. Aj keď máte najlepší model alebo najinteligentnejšieho chatbota, ak nemá ľahko použiteľné rozhranie, nikoho to nebude zaujímať. v tejto súvislosti ChatGPT dosiahol prelom tým, že túto technológiu predstavil širokej verejnosti pomocou bežného dialógového okna, v ktorom nám nápomocný robot slovo po slove „vytlačí“ riešenie priamo pred našimi očami.

Neprekvapujúco, ChatGPT prekonal všetky doterajšie rekordy v získavaní nových používateľov, pričom prekonal míľnik 1 milióna používateľov len za päť dní od spustenia a prekonal hranicu 100 miliónov používateľov len za dva mesiace.

ChatGPT prekonal všetky doterajšie rekordy v prilákaní nových používateľov, prekonal míľnik 1 milióna používateľov len za päť dní od spustenia a prekonal hranicu 100 miliónov používateľov len za dva mesiace

Samozrejme, tam, kde je rekordný nárast používateľov, sú obrovské peniaze. Číňania naliehavo oznámili blížiace sa prepustenie svojich vlastných Chatbot, Microsoft rýchlo uzavrel dohodu OpenAI investovať do nich desiatky miliárd dolárov a inžinieri Google zazvonili na poplach a začali formulovať plány na ochranu svojej vyhľadávacej služby pred konkurenciou s neurónovou sieťou.

Viac: ChatGPT prekonal rekord v raste publika s viac ako 100 miliónmi v januári

Zhrnutie: Keď ChatGPT model bol predstavený v novembri 2022, nedošlo k žiadnym významným technologickým pokrokom. Mal však pohodlné rozhranie na zapojenie používateľov a otvorený prístup, čo okamžite vyvolalo masívny nárast humbuku. Keďže ide o najdôležitejší problém v modernom svete, každý začal okamžite riešiť jazykové modely.

Prečítajte si viac o AI:

Vylúčenie zodpovednosti

V súlade s Pokyny k projektu Trust, uvedomte si, že informácie uvedené na tejto stránke nie sú zamýšľané a nemali by byť interpretované ako právne, daňové, investičné, finančné alebo iné formy poradenstva. Je dôležité investovať len toľko, koľko si môžete dovoliť stratiť a v prípade akýchkoľvek pochybností vyhľadať nezávislé finančné poradenstvo. Ak chcete získať ďalšie informácie, odporúčame vám pozrieť si zmluvné podmienky, ako aj stránky pomoci a podpory poskytnuté vydavateľom alebo inzerentom. MetaversePost sa zaviazala poskytovať presné a nezaujaté správy, ale podmienky na trhu sa môžu zmeniť bez upozornenia.

O autorovi

Damir je vedúci tímu, produktový manažér a redaktor v Metaverse Post, pokrývajúce témy ako AI/ML, AGI, LLM, Metaverse a Web3- súvisiace oblasti. Jeho články priťahujú každý mesiac obrovské publikum s viac ako miliónom používateľov. Zdá sa, že je odborníkom s 10-ročnými skúsenosťami v oblasti SEO a digitálneho marketingu. Damir bol spomenutý v Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto a ďalšie publikácie. Ako digitálny nomád cestuje medzi SAE, Tureckom, Ruskom a SNŠ. Damir získal bakalársky titul z fyziky, o ktorom sa domnieva, že mu dal schopnosti kritického myslenia potrebné na to, aby bol úspešný v neustále sa meniacom prostredí internetu. 

Ďalšie články
Damir Yalalov
Damir Yalalov

Damir je vedúci tímu, produktový manažér a redaktor v Metaverse Post, pokrývajúce témy ako AI/ML, AGI, LLM, Metaverse a Web3- súvisiace oblasti. Jeho články priťahujú každý mesiac obrovské publikum s viac ako miliónom používateľov. Zdá sa, že je odborníkom s 10-ročnými skúsenosťami v oblasti SEO a digitálneho marketingu. Damir bol spomenutý v Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto a ďalšie publikácie. Ako digitálny nomád cestuje medzi SAE, Tureckom, Ruskom a SNŠ. Damir získal bakalársky titul z fyziky, o ktorom sa domnieva, že mu dal schopnosti kritického myslenia potrebné na to, aby bol úspešný v neustále sa meniacom prostredí internetu. 

Inštitucionálny apetít rastie smerom k bitcoinovým ETF uprostred volatility

Zverejnenia prostredníctvom podaní 13F odhaľujú pozoruhodných inštitucionálnych investorov, ktorí sa venujú bitcoinovým ETF, čo podčiarkuje rastúcu akceptáciu ...

vedieť viac

Prichádza deň odsúdenia: Osud CZ visí v rovnováhe, pretože americký súd zvažuje žalobu ministerstva spravodlivosti

Changpeng Zhao dnes čaká na americkom súde v Seattli odsúdenie.

vedieť viac
Pripojte sa k našej komunite inovatívnych technológií
Čítaj viac
Čítaj viac
Injective spája svoje sily s AltLayer, aby priniesla bezpečnosť pri prestavbe inEVM
firmy Novinová správa Technológia
Injective spája svoje sily s AltLayer, aby priniesla bezpečnosť pri prestavbe inEVM
Môže 3, 2024
Masa sa spojila so spoločnosťou Teller, aby predstavila fond pôžičiek MASA a umožnila požičiavanie USDC na základni
trhy Novinová správa Technológia
Masa sa spojila so spoločnosťou Teller, aby predstavila fond pôžičiek MASA a umožnila požičiavanie USDC na základni
Môže 3, 2024
Velodrome uvádza na trh beta verziu Superchain v najbližších týždňoch a rozširuje sa o blockchainy OP Stack Layer 2
trhy Novinová správa Technológia
Velodrome uvádza na trh beta verziu Superchain v najbližších týždňoch a rozširuje sa o blockchainy OP Stack Layer 2
Môže 3, 2024
CARV oznamuje partnerstvo so spoločnosťou Aethir s cieľom decentralizovať svoju dátovú vrstvu a distribuovať odmeny
firmy Novinová správa Technológia
CARV oznamuje partnerstvo so spoločnosťou Aethir s cieľom decentralizovať svoju dátovú vrstvu a distribuovať odmeny
Môže 3, 2024
CRYPTOMERIA LABS PTE. LTD.