Vijesti Tehnologija
Ožujak 09, 2023

Evolucija chatbota iz T9-ere i GPT-1 do ChatGPT

Nedavno smo gotovo svakodnevno bombardirani objavama o najnovijim rekordima koje su oborile neuronske mreže velikih razmjera i zašto gotovo ničiji posao nije siguran. Ipak, vrlo je malo ljudi svjesno koliko vole neuronske mreže ChatGPT zapravo djelovati.

Dakle, opusti se. Nemojte još žaliti o izgledima za posao. U ovom postu objasnit ćemo sve što treba znati o neuronskim mrežama na način koji će svatko razumjeti.

Evolucija chatbota iz T9-ere i GPT-1 do ChatGPT i Bart

Upozorenje prije nego što počnemo: ovo djelo je suradnja. Cijeli tehnički dio napisao je AI stručnjak koji je dobro poznat među AI masom.

Budući da još nitko nije napisao detaljan članak o tome kako ChatGPT radova koji bi objasnili, laički rečeno, ulaze i nedostatke neuronskih mreža, odlučili smo to učiniti za vas. Pokušali smo ovaj post održati što je moguće jednostavnijim kako bi čitatelji nakon čitanja ovog posta mogli izaći s općim razumijevanjem principa jezičnih neuronskih mreža. Istražit ćemo kako jezični modeli rade tamo, kako su se neuronske mreže razvile da posjeduju svoje trenutne mogućnosti i zašto ChatGPTEksplozivna popularnost iznenadila je čak i njegove tvorce.

Počnimo s osnovama. Razumjeti ChatGPT s tehničkog stajališta, prvo moramo shvatiti što to nije. Ovo nije Jarvis iz Marvel Comicsa; nije razumno biće; to nije duh. Pripremite se na šok: ChatGPT je zapravo T9 vašeg mobitela na steroidima! Da, jest: znanstvenici obje ove tehnologije nazivaju “jezični modeli”. Sve što neuronske mreže rade jest pogađanje koja bi riječ trebala doći sljedeća.

Izvorna T9 tehnologija samo je ubrzala telefonsko biranje pritiskom na tipku pogađanjem trenutnog unosa umjesto sljedeće riječi. Međutim, tehnologija je napredovala i do ere pametnih telefona početkom 2010-ih mogla je uzeti u obzir kontekst i prethodnu riječ, dodati interpunkcijske znakove i ponuditi izbor riječi koje bi mogle ići sljedeće. To je upravo analogija koju pravimo s takvom "naprednom" verzijom T9 ili autocorrect.

Kao rezultat toga, i T9 na tipkovnici pametnog telefona i ChatGPT bili su obučeni da riješe smiješno jednostavan zadatak: predviđanje sljedeće riječi. To je poznato kao "jezično modeliranje", a događa se kada se na temelju postojećeg teksta donese odluka o tome što bi sljedeće trebalo napisati. Jezični modeli moraju djelovati na vjerojatnosti pojavljivanja specifičnih riječi kako bi napravili takva predviđanja. Na kraju krajeva, živcirali biste se da vam automatsko popunjavanje telefona izbacuje potpuno nasumične riječi s istom vjerojatnošću.

Radi jasnoće, zamislimo da primite poruku od prijatelja. Piše: "Kakvi su tvoji planovi za večer?" Kao odgovor, počnete tipkati: "I'm going to...", i tu na scenu stupa T9. Može smisliti potpuno besmislene stvari poput "I'm going to the moon," nije potreban složen jezični model. Dobri modeli automatskog dovršavanja pametnih telefona predlažu mnogo relevantnije riječi.

Dakle, kako T9 zna koje će riječi vjerojatnije slijediti već upisani tekst, a koje očito nemaju smisla? Da bismo odgovorili na ovo pitanje, prvo moramo ispitati temeljna načela rada najjednostavnijih neuronske mreže.

Više: ChatGPT API je sada dostupan, otvara vrata za razvojne programere

Kako AI modeli predviđaju sljedeću riječ

Počnimo s jednostavnijim pitanjem: Kako predviđate međuovisnost nekih stvari o drugima? Pretpostavimo da želimo naučiti računalo da predvidi nečiju težinu na temelju njene visine — kako to učiniti? Najprije bismo trebali identificirati područja interesa, a zatim prikupiti podatke na temelju kojih bismo mogli pretraživati ​​ovisnosti od interesa, a zatim pokušati “trenirati” neki matematički model tražiti uzorke unutar ovih podataka.

Kako AI modeli predviđaju sljedeću riječ

Pojednostavljeno rečeno, T9 odn ChatGPT samo su pametno odabrane jednadžbe koje pokušavaju predvidjeti riječ (Y) na temelju skupa prethodnih riječi (X) unesenih u ulaz modela. Prilikom treninga a jezični model na skupu podataka, glavni zadatak je odabrati koeficijente za te x-ove koji uistinu odražavaju neku vrstu ovisnosti (kao u našem primjeru s visinom i težinom). A pomoću velikih modela bolje ćemo razumjeti one s velikim brojem parametara. U polju umjetna inteligencija, nazivaju se velikim jezičnim modelima ili skraćeno LLM-ovima. Kao što ćemo kasnije vidjeti, veliki model s mnogo parametara neophodan je za generiranje dobrog teksta.

Usput, ako se pitate zašto stalno govorimo o "predviđanju jedne sljedeće riječi" dok ChatGPT brzo odgovara cijelim paragrafima teksta, odgovor je jednostavan. Naravno, jezični modeli mogu generirati duge tekstove bez poteškoća, ali cijeli proces je riječ po riječ. Nakon što se generira svaka nova riječ, model jednostavno ponovno pokreće sav tekst s novom riječi kako bi generirao sljedeću riječ. Proces se ponavlja iznova i iznova dok ne dobijete cijeli odgovor.

Više: ChatGPT Moglo bi uzrokovati nepovratnu ljudsku degeneraciju

Zašto stalno pokušavamo pronaći 'točne' riječi za određeni tekst?

Jezični modeli pokušavaju predvidjeti vjerojatnosti različitih riječi koje se mogu pojaviti u danom tekstu. Zašto je to potrebno i zašto ne možete samo nastaviti tražiti “najtočniju” riječ? Pokušajmo jednostavnom igrom da ilustriramo kako ovaj proces funkcionira.

Pravila su sljedeća: Predlažem da nastavite rečenicu: “44. predsjednik Sjedinjenih Država (i prvi Afroamerikanac na ovoj poziciji) je Barak...”. Koja bi riječ trebala ići sljedeće? Koja je vjerojatnost da će se to dogoditi?

Zašto stalno pokušavamo pronaći 'točne' riječi za određeni tekst?

Ako ste sa 100% sigurnošću predvidjeli da će sljedeća riječ biti "Obama", prevarili ste se! A poanta ovdje nije da postoji još jedan mitski Barak; mnogo je trivijalniji. Službeni dokumenti obično koriste predsjednikovo puno ime. To znači da bi ono što slijedi nakon Obaminog imena bilo njegovo srednje ime, Hussein. Dakle, u našoj rečenici pravilno uvježban jezični model trebao bi predvidjeti da će "Obama" biti sljedeća riječ samo uz uvjetnu vjerojatnost od 90% i dodijeliti preostalih 10% ako se tekst nastavi s "Hussein" (nakon čega će Obama slijediti s vjerojatnošću blizu 100%).

A sada dolazimo do intrigantnog aspekta jezičnih modela: oni nisu imuni na kreativne crte! Zapravo, prilikom generiranja svake sljedeće riječi, takvi modeli je biraju na "slučajan" način, kao da bacaju kocku. Vjerojatnost da različite riječi "ispadnu" više-manje odgovaraju vjerojatnostima koje predlažu jednadžbe umetnute u model. Oni su izvedeni iz ogromnog niza različitih tekstova kojima je model hranjen.

Ispostavilo se da manekenka može različito odgovoriti na iste zahtjeve, kao i živa osoba. Istraživači su općenito pokušavali prisiliti neurone da uvijek odaberu "najvjerojatnije" sljedeću riječ, ali dok se to na površini čini racionalnim, takvi modeli u stvarnosti imaju lošije rezultate. Čini se da je prilična doza slučajnosti korisna jer povećava varijabilnost i kvalitetu odgovora.

Istraživači su općenito pokušavali prisiliti neurone da uvijek odaberu "najvjerojatnije" sljedeću riječ, ali dok se to na površini čini racionalnim, takvi modeli u stvarnosti imaju lošije rezultate.
Više: ChatGPT Uči upravljati dronovima i robotima dok razmišlja o AI sljedeće generacije

Naš jezik ima jedinstvenu strukturu s različitim skupovima pravila i iznimaka. Postoji rima i razlog za to koje se riječi pojavljuju u rečenici, one se ne pojavljuju nasumično. Svatko nesvjesno uči pravila jezika koji koristi tijekom svojih ranih godina odrastanja.

Pristojan model trebao bi uzeti u obzir širok raspon deskriptivnosti jezika. Modelov sposobnost proizvesti željene rezultate ovisi o tome koliko precizno izračunava vjerojatnosti riječi na temelju suptilnosti konteksta (prethodni odjeljak teksta koji objašnjava okolnost).

Sposobnost modela da proizvede željene rezultate ovisi o tome koliko precizno izračunava vjerojatnosti riječi na temelju suptilnosti konteksta (prethodni odjeljak teksta koji objašnjava okolnost).

Sažetak: Jednostavni jezični modeli, koji su skup jednadžbi uvježbanih na ogromnoj količini podataka za predviđanje sljedeće riječi na temelju ulaznog izvornog teksta, implementirani su u funkcionalnost "T9/Autofill" pametnih telefona od ranih 2010-ih.

Više: Kina zabranjuje tvrtkama korištenje ChatGPT Nakon skandala “Prave vijesti”.

GPT-1: Dizanje industrije u zrak

Maknimo se od T9 modela. Iako vjerojatno čitate ovaj članak upoznavanje ChatGPT, prvo, moramo razgovarati o počecima GPT model obitelji.

GPT označava "generativni unaprijed obučeni transformator", dok je arhitektura neuronske mreže koju su razvili Googleovi inženjeri u 2017. je poznat kao Transformer. Transformer je univerzalni računalni mehanizam koji prihvaća skup sekvenci (podataka) kao ulaz i proizvodi isti skup sekvenci, ali u drugom obliku koji je izmijenjen nekim algoritmom.

Značaj stvaranja Transformera može se vidjeti u tome koliko je agresivno prihvaćen i primijenjen u svim područjima umjetne inteligencije (AI): prevođenje, obrada slike, zvuka i videa. Sektor umjetne inteligencije (AI) doživio je snažan potres, prelazeći iz takozvane „AI stagnacije“ u brzi razvoj i prevladavanje stagnacije.

Više: GPT-4-Na osnovi ChatGPT nadmašuje GPT-3 faktorom 570

Ključnu snagu Transformera čine moduli koji se lako skaliraju. Kada bi se tražilo da obrade veliku količinu teksta odjednom, stari jezični modeli prije transformacije bi usporili. S druge strane, transformatorske neuronske mreže daleko bolje se nose s ovim zadatkom.

U prošlosti su se ulazni podaci morali obrađivati ​​uzastopno ili jedan po jedan. Model ne bi zadržao podatke: ako bi radio s pričom od jedne stranice, zaboravio bi tekst nakon što bi ga pročitao. U međuvremenu, Transformer omogućuje da vidite sve odjednom, proizvodnju značajno zapanjujuće rezultate.

To je ono što je omogućilo iskorak u obradi teksta neuronskim mrežama. Kao rezultat toga, model više ne zaboravlja: ponovno koristi prethodno napisani materijal, bolje razumije kontekst i, što je najvažnije, može stvoriti veze između iznimno velikih količina podataka spajanjem riječi zajedno.

Sažetak: GPT-1, koji je debitirao 2018., pokazao je da neuronska mreža može proizvesti tekstove pomoću dizajna Transformer, koji je značajno poboljšao skalabilnost i učinkovitost. Kad bi bilo moguće povećati količinu i složenost jezičnih modela, to bi stvorilo znatnu rezervu.

Više: 6 AI ChatBot problema i izazova: ChatGPT, Bard, Claude

GPT-2: Doba velikih jezičnih modela

Jezični modeli ne moraju biti unaprijed posebno označeni i mogu se "nahraniti" bilo kojim tekstualnim podacima, što ih čini iznimno fleksibilnima. Ako malo razmislite, čini se razumnim da želimo iskoristiti njegove sposobnosti. Svaki tekst koji je ikada napisan služi kao gotovi podaci za obuku. Budući da već postoji toliko nizova tipa “puno nekih riječi i izraza => sljedeća riječ iza njih,” to ne čudi.

GPT-2: Doba velikih jezičnih modela
Više: ChatGPTZli Elter Ego probuđen na Redditu

Sada također imajmo na umu da je Transformers tehnologija testirana na GPT-1 pokazao se prilično uspješnim u pogledu skaliranja: znatno je učinkovitiji od svojih prethodnika u rukovanju velikim količinama podataka. Ispostavilo se da istraživači iz OpenAI došli do istog zaključka 2019.: “Vrijeme je da se smanje skupi jezični modeli!”

Korištenje električnih romobila ističe set podataka za obuku i model Veličina je posebno odabrana kao dva ključna područja u kojima GPT-2 trebalo drastično poboljšati.

Budući da u to vrijeme nije bilo golemih, visokokvalitetnih skupova javnih tekstualnih podataka posebno dizajniranih za obuku jezičnih modela, svaki tim stručnjaka za umjetnu inteligenciju morao je sam manipulirati podacima. The OpenAI Ljudi su tada odlučili otići na Reddit, najpopularniji forum na engleskom jeziku, i izvući sve hiperveze iz svake objave koja je imala više od tri sviđanja. Tih poveznica bilo je gotovo 8 milijuna, a preuzeti tekstovi ukupno su težili 40 terabajta.

GPT-2: Doba velikih jezičnih modela
Više: Microsoft će se komercijalizirati ChatGPT jer nastoji pomoći drugim tvrtkama

Koliki broj parametara ima jednadžba koja opisuje najveći GPT-2 model u 2019 imati? Možda sto tisuća ili nekoliko milijuna? Pa, idemo još dalje: formula je sadržavala do 1.5 milijardi takvih parametara. Trebat će vam 6 terabajta da samo upišete toliko brojeva u datoteku i spremite je na svoje računalo. Model ne mora pamtiti ovaj tekst kao cjelinu, tako da je s jedne strane to daleko manje od ukupne količine niza tekstualnih podataka na kojem je obučen model; dovoljno je jednostavno pronaći neke ovisnosti (obrasce, pravila) koje je moguće izolirati iz tekstova koje su napisali ljudi.

Što model bolje predviđa vjerojatnost i što više parametara sadrži, to je jednadžba složenija u model. To čini vjerodostojan tekst. Osim toga, GPT-2 model se počeo ponašati tako dobro da je OpenAI Istraživači čak nisu bili voljni otkriti model na otvorenom iz sigurnosnih razloga.

Vrlo je zanimljivo da kada model postane veći, odjednom počinje imati nove kvalitete (poput sposobnosti da piše kohezivne, smislene eseje umjesto da samo diktira sljedeću riječ na telefonu).

U ovom trenutku dolazi do promjene kvantitete u kvalitetu. Štoviše, događa se potpuno nelinearno. Na primjer, trostruko povećanje broja parametara sa 115 na 350 milijuna nema vidljiv utjecaj na sposobnost modela da točno rješava probleme. Međutim, dvostruki porast na 700 milijuna proizvodi kvalitativni skok, gdje neuronska mreža "ugleda svjetlo" i počinje sve zapanjiti svojom sposobnošću izvršavanja zadataka.

Sažetak: 2019. uveden je GPT-2, koji je 10 puta nadmašio svog prethodnika u pogledu veličine modela (broj parametara) i količine tekstualnih podataka za obuku. Zahvaljujući tom kvantitativnom napretku, model je nepredvidivo stekao kvalitativno nove talente, poput sposobnosti pisati dugačke eseje s jasnim značenjem i rješavati izazovne probleme koji traže temelje svjetonazora.

Više: Googleovi zahtjevi su oko sedam puta jeftiniji od ChatGPT, koji košta 2 centa

GPT-3: Pametan k'o vrag

Općenito, izdanje 2020 GPT-3, sljedeća generacija u seriji, već se može pohvaliti sa 116 puta više parametara—do 175 milijardi i nevjerojatnih 700 terabajta.

Korištenje električnih romobila ističe GPT-3 skup podataka o obuci također je proširen, iako ne toliko drastično. Povećao se za gotovo 10 puta na 420 gigabajta i sada sadrži velik broj knjiga, Wikipedia članke i druge tekstove s drugih web stranica. Čovjeku bi trebalo otprilike 50 godina neprekidnog čitanja, što ga čini nemogućim podvigom.

Odmah primjećujete intrigantnu razliku: razlika GPT-2, sam model sada je 700 GB veći od cjelokupnog niza teksta za svoju obuku (420 GB). Ispostavilo se da je to, u određenom smislu, paradoks: u ovom slučaju, dok "neuromozak" proučava sirove podatke, on generira informacije o različitim međuovisnostima unutar njih koje su volumetrijski obilnije od izvornih podataka.

GPT-3: Pametan k'o vrag
Više: ChatGPT Eksperiment: AI bi radije ubio milijune ljudi nego nekoga uvrijedio

Kao rezultat generalizacije modela, on sada može ekstrapolirati čak i uspješnije nego prije i uspješan je čak i u zadacima generiranja teksta koji su se rijetko ili uopće nisu događali tijekom obuke. Sada ne trebate učiti model kako se uhvatiti u koštac s određenim problemom; dovoljno ih je opisati i navesti nekoliko primjera, i GPT-3 odmah će naučiti.

Korištenje električnih romobila ističe “univerzalni mozak” u obliku GPT-3 na kraju je porazio mnoge ranije specijalizirane modele. Na primjer, GPT-3 počeo prevoditi tekstove s francuskog ili njemačkog brže i točnije od bilo koje prethodne neuronske mreže stvorene posebno za tu svrhu. Kako? Dopustite mi da vas podsjetim da raspravljamo o lingvističkom modelu čiji je jedini cilj bio pokušati predvidjeti sljedeću riječ u danom tekstu.

Još zapanjujuće, GPT-3 bio u stanju podučavati sam sebe... matematiku! Grafikon u nastavku ilustrira koliko dobro neuronske mreže rade na zadacima uključujući zbrajanje i oduzimanje, kao i množenje cijelih brojeva do pet znamenki s različitim brojem parametara. Kao što vidite, neuronske mreže odjednom počinju "moći" u matematici prelazeći s modela s 10 milijardi parametara na one sa 100 milijardi.

neuronske mreže odjednom počinju "moći" u matematici prelazeći s modela s 10 milijardi parametara na one sa 100 milijardi
Više: Big Tech's AI Race: Google testira Chatbot koji pokreće AI kao odgovor na ChatGPT

Najintrigantnija značajka gore spomenutog grafikona je kako se u početku čini da se ništa ne mijenja kako se veličina modela povećava (s lijeva na desno), ali odjednom, p puta! Dolazi do kvalitativnog pomaka i GPT-3 počinje “shvaćati” kako riješiti određeni problem. Nitko nije siguran kako, što ili zašto funkcionira. Ipak, čini se da radi u raznim drugim poteškoćama, kao iu matematici.

Najintrigantnija značajka gore spomenutog grafikona je da kada se veličina modela poveća, prvo se čini da se ništa ne mijenja, a zatim, GPT-3 napravi kvalitativni iskorak i počne “shvaćati” kako riješiti određeni problem.

Gif ispod jednostavno pokazuje kako nove sposobnosti koje nitko nije namjerno planirao "niču" u modelu kako se broj parametara povećava:

2020 GPT-3 bio je 100 puta veći od svog prethodnika, dok su tekstualni podaci za obuku bili 10 puta veći

Sažetak: Što se parametara tiče, 2020 GPT-3 bio je 100 puta veći od svog prethodnika, dok su tekstualni podaci za obuku bili 10 puta veći. Još jednom, model je naučio prevoditi s drugih jezika, izvoditi aritmetiku, izvoditi jednostavno programiranje, zaključivati ​​sekvencijalno i još mnogo toga kao rezultat ekspanzije količine koja je naglo povećala kvalitetu.

Više: ChatGPT Ima problema s Donaldom Trumpom

GPT-3.5 (PoučitiGPT): Model obučen da bude siguran i netoksičan

U stvarnosti, proširenje jezičnih modela ne jamči da će reagirati na upite onako kako to korisnici žele. Zapravo, kada postavljamo zahtjev, često imamo namjeru niz neizgovorenih pojmova za koje se u ljudskoj komunikaciji pretpostavlja da su istiniti.

Ipak, da budemo iskreni, jezični modeli nisu baš bliski onima ljudi. Stoga često moraju razmišljati o konceptima koji se ljudima čine jednostavnima. Jedan takav prijedlog je fraza "razmišljajmo korak po korak". Bilo bi fantastično kada bi modeli razumjeli ili generirali konkretnije i relevantnije upute iz zahtjeva te ih preciznije slijedili kao da predviđaju kako bi se osoba ponašala.

Činjenica da se GPT-3 je istreniran da samo predviđa sljedeću riječ u masivnoj zbirci tekstova s ​​interneta, napisano je mnogo različitih stvari, pridonosi nedostatku takvih "zadanih" sposobnosti. Ljudi žele da umjetna inteligencija pruži relevantne informacije, a da odgovori budu sigurni i netoksični.

Kad su istraživači malo razmislili o ovom problemu, postalo je očito da su atributi modela "točnost i korisnost" i "bezopasnost i netoksičnost" ponekad u suprotnosti jedni s drugima. Uostalom, model podešen za maksimalnu bezopasnost reagirat će na bilo koji upit s "Oprostite, brinem se da bi moj odgovor mogao uvrijediti nekoga na internetu." Točan model trebao bi iskreno odgovoriti na zahtjev: "U redu, Siri, kako napraviti bombu."

Više: Tip piše svoju tezu u jednom danu koristeći samo ChatGPT

Istraživači su stoga bili ograničeni na jednostavno pružanje modela s puno povratnih informacija. U izvjesnom smislu djeca se upravo tako uče moralu: eksperimentiraju u djetinjstvu, a istovremeno pažljivo proučavaju reakcije odraslih kako bi procijenili jesu li se ispravno ponašali.

PoučitiGPT, također poznat kao GPT-3.5, u biti je GPT-3 koji je dobio mnogo povratnih informacija kako bi poboljšao svoje odgovore. Doslovno, određeni broj pojedinaca okupljen je na jednom mjestu, procjenjujući odgovore neuronske mreže kako bi utvrdili koliko dobro odgovaraju njihovim očekivanjima u svjetlu zahtjeva koji su postavili.

Ispostavilo se da GPT-3 već ima svo osnovno znanje: Moglo je razumjeti mnoge jezike, prisjetiti se povijesnih događaja, prepoznati varijacije u autorskim stilovima, i tako dalje, ali moglo je naučiti pravilno koristiti to znanje (s našeg stajališta) samo uz pomoć drugih pojedinaca. GPT-3.5 može se smatrati modelom "obrazovanim u društvu".

Sažetak: Primarna funkcija od GPT-3.5, koji je uveden početkom 2022., bila je dodatna prekvalifikacija na temelju doprinosa pojedinaca. Ispostavilo se da ovaj model zapravo nije postao veći i mudriji, već je ovladao sposobnošću da prilagodi svoje odgovore kako bi se ljudi najluđe nasmijali.

Više: Promet na StackOverflowu naglo pada ChatGPT pokreće

ChatGPT: Ogroman val pompe

Oko 10 mjeseci nakon svog prethodnika InstructGPT/GGPT-3.5, ChatGPT je uveden. To je odmah izazvalo globalnu pompu.

S tehnološkog stajališta, ne čini se da postoje značajne razlike između ChatGPT i uputitiGPT. Model je obučen s dodatnim dijaloškim podacima budući da "posao AI pomoćnika" zahtijeva jedinstveni dijaloški format, na primjer, mogućnost postavljanja pitanja za razjašnjenje ako je zahtjev korisnika nejasan.

Dakle, zašto nije bilo hype okolo GPT-3.5 početkom 2022. dok ChatGPT zahvatio kao požar? Sam Altman, Izvršni direktor tvrtke OpenAI, otvoreno je priznao da su istraživači koje smo zatekli ChatGPTtrenutni uspjeh. Uostalom, model s njim usporedivim sposobnostima ležao je na njihovoj web stranici više od deset mjeseci u tom trenutku, a nitko nije bio dorastao zadatku.

ChatGPT: Ogroman val pompe
Više: ChatGPT polaže Wharton MBA ispit

Nevjerojatno, ali čini se da je novo korisničko sučelje ključ njegovog uspjeha. Ista UputaGPT moglo se pristupiti samo putem jedinstvenog API sučelja, ograničavajući pristup ljudi modelu. ChatGPT, s druge strane, koristi dobro poznato sučelje "prozora za dijalog" glasnika. Također, budući da ChatGPT bio dostupan svima odjednom, stampedo pojedinaca požurio je stupiti u interakciju s neuronskom mrežom, pregledati ih i objaviti na društvenih medija, uzdižući druge.

ChatGPT, s druge strane, koristi dobro poznato sučelje "prozora za dijalog" glasnika
Više: Američkom obrazovnom sustavu prijeko treba 300 tisuća učitelja — ali ChatGPT mogao biti odgovor

Osim sjajne tehnologije, još je jedna stvar napravljena kako treba OpenAI: Marketing. Čak i ako imate najbolji model ili najinteligentniji chatbot, ako on nema sučelje jednostavno za korištenje, nikoga neće zanimati. U tom smislu, ChatGPT postigao je iskorak predstavljanjem tehnologije široj javnosti koristeći uobičajeni dijaloški okvir, u kojem uslužni robot "ispisuje" rješenje točno pred našim očima, riječ po riječ.

Neiznenađujuće, ChatGPT oborio sve dosadašnje rekorde u privlačenju novih korisnika, premašivši granicu od 1 milijun korisnika u samo pet dana od lansiranja i prešavši 100 milijuna korisnika u samo dva mjeseca.

ChatGPT oborio sve dosadašnje rekorde u privlačenju novih korisnika, premašivši granicu od 1 milijun korisnika u samo pet dana od pokretanja i prešavši 100 milijuna korisnika u samo dva mjeseca

Naravno, tamo gdje je rekordan porast korisnika, tu je i ogroman novac. Kinezi su hitno najavili skoro puštanje vlastitog chatbot, Microsoft je brzo sklopio dogovor OpenAI u njih uložiti desetke milijardi dolara, a Googleovi inženjeri oglasili su uzbunu i počeli formulirati planove za zaštitu svoje usluge pretraživanja od konkurencije s neuronskom mrežom.

Više: ChatGPT oborio rekord u porastu publike s više od 100 milijuna u siječnju

Sažetak: Kada ChatGPT model predstavljen u studenom 2022., nije bilo značajnijih tehnoloških pomaka. Međutim, imao je prikladno sučelje za angažman korisnika i otvoreni pristup, što je odmah izazvalo veliki val pompe. Budući da je to najvažnije pitanje u suvremenom svijetu, svi su se odmah počeli baviti jezičnim modelima.

Pročitajte više o AI:

Izjava o odricanju od odgovornosti

U skladu s Smjernice projekta povjerenja, imajte na umu da informacije navedene na ovoj stranici nemaju namjeru i ne smiju se tumačiti kao pravni, porezni, investicijski, financijski ili bilo koji drugi oblik savjeta. Važno je ulagati samo ono što si možete priuštiti izgubiti i potražiti neovisni financijski savjet ako imate bilo kakvih nedoumica. Za dodatne informacije predlažemo da pogledate odredbe i uvjete, kao i stranice za pomoć i podršku koje pruža izdavatelj ili oglašivač. MetaversePost je predan točnom, nepristranom izvješćivanju, ali tržišni uvjeti podložni su promjenama bez prethodne najave.

O autoru

Damir je voditelj tima, product manager i urednik u Metaverse Post, koji pokriva teme kao što su AI/ML, AGI, LLMs, Metaverse i Web3- srodna polja. Njegovi članci privlače ogromnu publiku od preko milijun korisnika svakog mjeseca. Čini se da je stručnjak s 10 godina iskustva u SEO-u i digitalnom marketingu. Damir je spomenut u Mashableu, Wiredu, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto i druge publikacije. Putuje između UAE, Turske, Rusije i CIS-a kao digitalni nomad. Damir je stekao diplomu prvostupnika fizike, za koju vjeruje da mu je dala vještine kritičkog razmišljanja potrebne za uspjeh u stalno promjenjivom okruženju interneta. 

Više članaka
Damir Yalalov
Damir Yalalov

Damir je voditelj tima, product manager i urednik u Metaverse Post, koji pokriva teme kao što su AI/ML, AGI, LLMs, Metaverse i Web3- srodna polja. Njegovi članci privlače ogromnu publiku od preko milijun korisnika svakog mjeseca. Čini se da je stručnjak s 10 godina iskustva u SEO-u i digitalnom marketingu. Damir je spomenut u Mashableu, Wiredu, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto i druge publikacije. Putuje između UAE, Turske, Rusije i CIS-a kao digitalni nomad. Damir je stekao diplomu prvostupnika fizike, za koju vjeruje da mu je dala vještine kritičkog razmišljanja potrebne za uspjeh u stalno promjenjivom okruženju interneta. 

Institucionalni apetit raste prema Bitcoin ETF-ovima usred volatilnosti

Objave putem 13F prijava otkrivaju značajne institucionalne ulagače koji se upuštaju u Bitcoin ETF-ove, naglašavajući sve veće prihvaćanje ...

Znati više

Stiže dan izricanja presude: CZ-ova sudbina visi na ravnoteži dok američki sud razmatra izjavu DOJ-a

Changpeng Zhao danas će se suočiti s kaznom na američkom sudu u Seattleu.

Znati više
Pridružite se našoj zajednici inovativnih tehnologija
opširnije
Čitaj više
Injective udružuje snage s AltLayerom kako bi unio sigurnost ponovnog postavljanja na inEVM
posao Vijesti Tehnologija
Injective udružuje snage s AltLayerom kako bi unio sigurnost ponovnog postavljanja na inEVM
Neka 3, 2024
Masa se udružuje s Tellerom kako bi uveli MASA Lending Pool, omogućujući USDC posuđivanje na bazi
tržišta Vijesti Tehnologija
Masa se udružuje s Tellerom kako bi uveli MASA Lending Pool, omogućujući USDC posuđivanje na bazi
Neka 3, 2024
Velodrome lansira Superchain Beta verziju u nadolazećim tjednima i proširuje se na OP Stack Layer 2 Blockchains
tržišta Vijesti Tehnologija
Velodrome lansira Superchain Beta verziju u nadolazećim tjednima i proširuje se na OP Stack Layer 2 Blockchains
Neka 3, 2024
CARV najavljuje partnerstvo s Aethirom za decentralizaciju svog podatkovnog sloja i distribuciju nagrada
posao Vijesti Tehnologija
CARV najavljuje partnerstvo s Aethirom za decentralizaciju svog podatkovnog sloja i distribuciju nagrada
Neka 3, 2024
CRYPTOMERIA LABS PTE. LTD.