Buletin de stiri Tehnologia
Martie 09, 2023

Evoluția chatbot-urilor din epoca T9 și GPT-1 la ChatGPT

Recent, am fost bombardați aproape zilnic cu postări de știri despre ultimele recorduri doborâte de rețelele neuronale la scară largă și de ce aproape nimeni nu este în siguranță locul de muncă. Cu toate acestea, foarte puțini oameni știu cum le plac rețelele neuronale ChatGPT funcționează efectiv.

Deci, relaxează-te. Nu te plânge încă de perspectivele tale de muncă. În această postare, vom explica tot ceea ce trebuie să știți despre rețelele neuronale într-un mod pe care oricine îl poate înțelege.

Evoluția chatbot-urilor din epoca T9 și GPT-1 la ChatGPT și Bart

Un avertisment înainte de a începe: această piesă este o colaborare. Întreaga parte tehnică a fost scrisă de un specialist AI care este binecunoscut în rândul mulțimii AI.

Din moment ce nimeni nu a scris încă un articol aprofundat despre cum ChatGPT lucrări care ar explica, în termeni profani, dezavantajele rețelelor neuronale, am decis să facem asta pentru tine. Am încercat să menținem această postare cât mai simplă posibil, astfel încât cititorii să poată ieși din lectura acestei postări cu o înțelegere generală a principiilor rețelelor neuronale ale limbajului. Vom explora cum modele de limbaj lucrează acolo, cum au evoluat rețelele neuronale pentru a-și poseda capacitățile actuale și de ce ChatGPTPopularitatea explozivă a lui i-a surprins chiar și pe creatorii săi.

Să începem cu elementele de bază. A întelege ChatGPT din punct de vedere tehnic, trebuie mai întâi să înțelegem ce nu este. Acesta nu este Jarvis de la Marvel Comics; nu este o ființă rațională; nu este un geniu. Pregătește-te să fii șocat: ChatGPT este de fapt T9 al telefonului tău mobil pe steroizi! Da, este: oamenii de știință se referă la ambele tehnologii ca „modele lingvistice”. Tot ce fac rețelele neuronale este să ghicească ce cuvânt ar trebui să urmeze.

Tehnologia originală T9 a accelerat doar apelarea telefonului prin apăsare, ghicind intrarea curentă, mai degrabă decât următorul cuvânt. Cu toate acestea, tehnologia a avansat și, până în epoca smartphone-urilor la începutul anilor 2010, a fost capabil să ia în considerare contextul și cuvântul de dinainte, să adauge punctuație și să ofere o selecție de cuvinte care ar putea urma. Aceasta este exact analogia pe care o facem cu o astfel de versiune „avansată” a lui T9 sau a corectării automate.

Drept urmare, atât T9 pe tastatura unui smartphone, cât și ChatGPT au fost instruiți să rezolve o sarcină ridicol de simplă: prezice următorul cuvânt. Acest lucru este cunoscut sub denumirea de „modelare lingvistică” și are loc atunci când se ia o decizie cu privire la ceea ce ar trebui scris în continuare pe baza textului existent. Modelele de limbaj trebuie să opereze pe probabilitățile de apariție a unor cuvinte specifice pentru a face astfel de predicții. La urma urmei, ați fi enervat dacă completarea automată a telefonului v-ar arunca cuvinte complet aleatorii cu aceeași probabilitate.

Pentru claritate, să ne imaginăm că primești un mesaj de la un prieten. Scrie: „Ce planuri aveți pentru seară?” Ca răspuns, începeți să tastați: „Mă duc să...”, și aici intervine T9. S-ar putea să vină cu lucruri complet absurde, cum ar fi „Merg pe Lună”, nu este necesar un model de limbaj complex. Modelele bune de completare automată a smartphone-urilor sugerează cuvinte mult mai relevante.

Deci, de unde știe T9 ce cuvinte au mai multe șanse să urmeze textul deja tastat și ce în mod clar nu are sens? Pentru a răspunde la această întrebare, trebuie să examinăm mai întâi principiile fundamentale de funcționare ale celor mai simple rețele neuronale.

Mai mult: ChatGPT API-ul este acum disponibil, deschide Floodgate pentru dezvoltatori

Cum modelele AI prezic următorul cuvânt

Să începem cu o întrebare mai simplă: cum preziceți interdependența unor lucruri față de altele? Să presupunem că vrem să învățăm un computer să prezică greutatea unei persoane în funcție de înălțimea acesteia - cum ar trebui să procedăm? Ar trebui mai întâi să identificăm zonele de interes și apoi să colectăm date pe care să căutăm dependențele de interes și apoi să încercăm să „antrenează” un model matematic pentru a căuta modele în aceste date.

Cum modelele AI prezic următorul cuvânt

Pentru a spune simplu, T9 sau ChatGPT sunt doar ecuații alese inteligent care încearcă să prezice un cuvânt (Y) bazat pe setul de cuvinte anterioare (X) introduse în intrarea modelului. La antrenament a model de limbaj pe un set de date, sarcina principală este de a selecta coeficienți pentru aceste x care reflectă cu adevărat un fel de dependență (ca în exemplul nostru cu înălțimea și greutatea). Și prin modele mari, vom obține o mai bună înțelegere a celor cu un număr mare de parametri. În domeniul inteligență artificială, sunt denumite modele lingvistice mari, sau LLM-uri pe scurt. După cum vom vedea mai târziu, un model mare cu mulți parametri este esențial pentru generarea de text bun.

Apropo, dacă vă întrebați de ce vorbim în mod constant despre „a prezice următorul cuvânt” în timp ce ChatGPT răspunde rapid cu paragrafe întregi de text, răspunsul este simplu. Sigur, modelele lingvistice pot genera texte lungi fără dificultate, dar întregul proces este cuvânt cu cuvânt. După ce fiecare cuvânt nou este generat, modelul pur și simplu rulează din nou tot textul cu cuvântul nou pentru a genera următorul cuvânt. Procesul se repetă din nou și din nou până când obțineți întregul răspuns.

Mai mult: ChatGPT Ar putea cauza degenerare umană ireversibilă

De ce tot încercăm să găsim cuvintele „corecte” pentru un anumit text?

Modelele de limbaj încearcă să prezică probabilitățile diferitelor cuvinte care pot apărea într-un text dat. De ce este necesar acest lucru și de ce nu puteți continua să căutați cuvântul „cel mai corect”? Să încercăm un joc simplu pentru a ilustra cum funcționează acest proces.

Regulile sunt următoarele: Vă propun să continuați fraza: „Al 44-lea președinte al Statelor Unite (și primul afro-american în această funcție) este Barak…”. Ce cuvânt ar trebui să urmeze? Care este probabilitatea să apară?

De ce tot încercăm să găsim cuvintele „corecte” pentru un anumit text?

Dacă ai prezis cu 100% certitudine că următorul cuvânt va fi „Obama”, te-ai înșelat! Iar ideea aici nu este că există un alt Barak mitic; este mult mai banal. Documentele oficiale folosesc de obicei numele complet al președintelui. Aceasta înseamnă că ceea ce urmează prenumelui lui Obama ar fi al doilea nume, Hussein. Deci, în propoziția noastră, un model de limbaj antrenat corespunzător ar trebui să prezică că „Obama” va fi următorul cuvânt doar cu o probabilitate condiționată de 90% și să aloce restul de 10% dacă textul este continuat de „Hussein” (după care Obama va urmează cu o probabilitate apropiată de 100%).

Și acum ajungem la un aspect intrigant al modelelor de limbaj: ele nu sunt imune la striurile creative! De fapt, atunci când generează fiecare cuvânt următor, astfel de modele îl aleg într-un mod „aleatoriu”, de parcă ar arunca un zar. Probabilitatea ca diferite cuvinte „cădere” corespunde mai mult sau mai puțin probabilităților sugerate de ecuațiile inserate în interiorul modelului. Acestea sunt derivate din gama uriașă de texte diferite cu care a fost alimentat modelul.

Se dovedește că un model poate răspunde diferit la aceleași solicitări, la fel ca o persoană în viață. Cercetătorii au încercat în general să forțeze neuronii să aleagă întotdeauna cuvântul următor „cel mai probabil”, dar, deși acest lucru pare rațional la suprafață, astfel de modele au rezultate mai proaste în realitate. Se pare că o doză corectă de aleatorie este avantajoasă, deoarece crește variabilitatea și calitatea răspunsurilor.

Cercetătorii au încercat în general să forțeze neuronii să aleagă întotdeauna cuvântul următor „cel mai probabil”, dar, deși acest lucru pare rațional la suprafață, astfel de modele au rezultate mai proaste în realitate.
Mai mult: ChatGPT Învață să controleze dronele și roboții în timp ce analizează IA de nouă generație

Limba noastră are o structură unică, cu seturi distincte de reguli și excepții. Există rima și motiv pentru cuvintele care apar într-o propoziție, ele nu apar doar la întâmplare. Toată lumea învață inconștient regulile limbii pe care o folosesc în timpul primilor ani de formare.

Un model decent ar trebui să țină cont de gama largă de caracter descriptiv al limbajului. Al modelului capacitatea de a produce rezultatele dorite depinde de cât de precis calculează probabilitățile cuvintelor pe baza subtilităților contextului (secțiunea anterioară a textului care explică circumstanța).

Capacitatea modelului de a produce rezultatele dorite depinde de cât de precis calculează probabilitățile cuvintelor pe baza subtilităților contextului (secțiunea anterioară a textului care explică circumstanțele).

Rezumat: Modelele de limbaj simple, care sunt un set de ecuații antrenate pe o cantitate imensă de date pentru a prezice următorul cuvânt pe baza textului sursă de intrare, au fost implementate în funcționalitatea „T9/Completare automată” a smartphone-urilor încă de la începutul anilor 2010.

Mai mult: China interzice companiilor să folosească ChatGPT După scandalul „Vești adevărate”.

GPT-1: Explorând industria

Să ne îndepărtăm de modelele T9. În timp ce probabil că citiți acest articol invata despre ChatGPT, mai întâi, trebuie să discutăm despre începuturile GPT familie model.

GPT înseamnă „transformator generativ pre-antrenat”, în timp ce arhitectura rețelei neuronale dezvoltată de inginerii Google în 2017 este cunoscut sub numele de Transformer. Transformerul este un mecanism de calcul universal care acceptă un set de secvențe (date) ca intrare și produce același set de secvențe, dar într-o formă diferită care a fost modificată de un algoritm.

Semnificația creației Transformerului poate fi văzută în cât de agresiv a fost adoptat și aplicat în toate domeniile inteligenței artificiale (AI): traducere, imagine, sunet și procesare video. Sectorul inteligenței artificiale (AI) a avut o puternică schimbare, trecând de la așa-numita „stagnare AI” la dezvoltarea rapidă și depășirea stagnării.

Mai mult: GPT-4-Bazat ChatGPT surclasează GPT-3 cu un factor de 570

Puterea cheie a Transformerului este alcătuită din module ușor de scalat. Când li s-a cerut să proceseze o cantitate mare de text simultan, vechile modele de limbaj pre-transformator ar încetini. Rețelele neuronale transformatoare, pe de altă parte, se descurcă mult mai bine cu această sarcină.

În trecut, datele de intrare trebuiau procesate secvenţial sau pe rând. Modelul nu ar reține datele: dacă ar funcționa cu o narațiune de o pagină, ar uita textul după ce l-a citit. Între timp, Transformerul vă permite să vedeți totul deodată, producând rezultate semnificativ mai uimitoare.

Acesta este ceea ce a permis o descoperire în procesarea textelor de către rețelele neuronale. Drept urmare, modelul nu mai uită: reutiliza materialul scris anterior, înțelege mai bine contextul și, cel mai important, este capabil să creeze conexiuni între volume extrem de mari de date prin împerecherea cuvintelor.

Rezumat: GPT-1, care a debutat în 2018, a demonstrat că o rețea neuronală ar putea produce texte folosind designul Transformer, care a îmbunătățit semnificativ scalabilitatea și eficiența. Dacă ar fi posibilă creșterea cantității și complexității modelelor lingvistice, aceasta ar produce o rezervă considerabilă.

Mai mult: 6 probleme și provocări ale AI ChatBot: ChatGPT, Bard, Claude

GPT-2: Epoca modelelor de limbaj mari

Modelele lingvistice nu trebuie să fie etichetate în mod special în prealabil și pot fi „alimentate” cu orice date textuale, făcându-le extrem de flexibile. Dacă vă gândiți puțin, pare rezonabil că am dori să-i folosim abilitățile. Orice text care a fost scris vreodată servește ca date de antrenament gata făcute. Deoarece există deja atât de multe secvențe de tipul „multe cuvinte și expresii => următorul cuvânt după ele”, acest lucru nu este surprinzător.

GPT-2: Epoca modelelor de limbaj mari
Mai mult: ChatGPTEvil Elter Ego Awakened pe Reddit

Acum să ținem cont și de faptul că tehnologia Transformers a fost testată GPT-1 s-a dovedit a fi destul de reușit în ceea ce privește scalarea: este considerabil mai eficient decât predecesorii săi în gestionarea unor volume mari de date. Se pare că cercetătorii din OpenAI a ajuns la aceeași concluzie în 2019: „Este timpul să reducem modelele lingvistice scumpe!”

setul de date de antrenament și modelul dimensiunea, în special, au fost alese ca două domenii cruciale în care GPT-2 trebuia îmbunătățită drastic.

Deoarece nu existau seturi de date publice uriașe și de înaltă calitate la momentul respectiv, concepute special pentru formarea modelelor lingvistice, fiecare echipă de experți în inteligență artificială a trebuit să manipuleze datele pe cont propriu. The OpenAI Oamenii au luat apoi decizia de a merge la Reddit, cel mai popular forum în limba engleză, și de a extrage toate hyperlinkurile de la fiecare postare care a avut mai mult de trei aprecieri. Au fost aproape 8 milioane de aceste link-uri, iar textele descărcate cântăreau în total 40 de terabytes.

GPT-2: Epoca modelelor de limbaj mari
Mai mult: Microsoft să comercializeze ChatGPT deoarece caută să ajute alte companii

Ce număr de parametri a avut ecuația care descrie cel mai mare GPT-2 model în 2019 au? Poate o sută de mii sau câteva milioane? Ei bine, să mergem și mai departe: formula conținea până la 1.5 miliarde de astfel de parametri. Va fi nevoie de 6 terabytes pentru a scrie atâtea numere într-un fișier și a-l salva pe computer. Modelul nu trebuie să memoreze acest text în ansamblu, așa că, pe de o parte, acesta este mult mai mic decât cantitatea totală a matricei de date text pe care a antrenat modelul; este suficient ca acesta să găsească pur și simplu niște dependențe (modele, reguli) care pot fi izolate de textele scrise de oameni.

Cu cât modelul prognozează mai bine probabilitatea și cu cât conține mai mulți parametri, cu atât ecuația este mai complexă în model. Acest lucru face un text credibil. În plus, cel GPT-2 modelul a început să funcționeze atât de bine încât OpenAI cercetători au fost chiar reticente în a dezvălui modelul în aer liber din motive de securitate.

Este foarte interesant că, atunci când un model devine mai mare, brusc începe să aibă noi calități (cum ar fi capacitatea de a scrie eseuri coezive și semnificative în loc să dicteze pur și simplu următorul cuvânt la telefon).

Trecerea de la cantitate la calitate are loc în acest moment. În plus, se întâmplă în întregime neliniar. De exemplu, o creștere de trei ori a numărului de parametri de la 115 la 350 de milioane nu are niciun impact vizibil asupra capacității modelului de a rezolva problemele cu acuratețe. Cu toate acestea, o creștere de două ori la 700 de milioane produce un salt calitativ, în care rețeaua neuronală „vede lumina” și începe să uimească pe toată lumea prin capacitatea sa de a îndeplini sarcini.

Rezumat: 2019 a fost introdus GPT-2, care și-a întrecut de 10 ori predecesorul în ceea ce privește dimensiunea modelului (numărul de parametri) și volumul datelor text de antrenament. Datorită acestui progres cantitativ, modelul a dobândit în mod imprevizibil noi talente calitativ, cum ar fi capacitatea de a scrie eseuri lungi cu un sens clar și să rezolve probleme provocatoare care necesită bazele unei viziuni asupra lumii.

Mai mult: Solicitările Google sunt de aproximativ șapte ori mai ieftine decât ChatGPT, care costă 2 cenți

GPT-3: Deștept ca iadul

În general, lansarea din 2020 a GPT-3, următoarea generație din serie, are deja de 116 ori mai mulți parametri - până la 175 de miliarde și 700 de terabytes.

GPT-3 Setul de date de antrenament a fost, de asemenea, extins, deși nu la fel de drastic. A crescut de aproape 10 ori la 420 de gigaocteți și acum conține un număr mare de cărți, Wikiarticole din pedia și alte texte de pe alte site-uri web. Un om ar avea nevoie de aproximativ 50 de ani de citit non-stop, făcându-l o faptă imposibilă.

Observi imediat o diferență intrigantă: spre deosebire GPT-2, modelul în sine este acum cu 700 GB mai mare decât întreaga gamă de text pentru antrenament (420 GB). Acest lucru se dovedește a fi, într-un fel, un paradox: în acest caz, pe măsură ce „neurocreierul” studiază datele brute, generează informații despre diverse interdependențe în interiorul lor, care sunt mai abundente din punct de vedere volumetric decât datele originale.

GPT-3: Deștept ca iadul
Mai mult: ChatGPT Experiment: AI ar prefera să omoare milioane de oameni decât să insulte pe cineva

Ca urmare a generalizării modelului, acesta este acum capabil să extrapoleze cu mai mult succes decât înainte și are succes chiar și în sarcinile de generare de text care au apărut rar sau deloc în timpul antrenamentului. Acum, nu trebuie să înveți modelul cum să abordeze o anumită problemă; este suficient să le descrii și să dai câteva exemple și GPT-3 va invata instantaneu.

„creier universal” in forma GPT-3 în cele din urmă a învins multe modele specializate anterioare. De exemplu, GPT-3 a început să traducă texte din franceză sau germană mai rapid și mai precis decât orice rețele neuronale anterioare create special în acest scop. Cum? Permiteți-mi să vă reamintesc că discutăm despre un model lingvistic al cărui singur obiectiv a fost să încerce să prezică următorul cuvânt într-un text dat.

Și mai uluitor, GPT-3 a fost capabil să învețe singur... matematică! Graficul de mai jos ilustrează cât de bine funcționează rețelele neuronale la sarcini, inclusiv adunarea și scăderea, precum și înmulțirea numerelor întregi de până la cinci cifre cu un număr variabil de parametri. După cum puteți vedea, rețelele neuronale încep brusc să „pote” în matematică, trecând de la modele cu 10 miliarde de parametri la modele cu 100 de miliarde.

rețelele neuronale încep brusc să „pote” în matematică, trecând de la modele cu 10 miliarde de parametri la modele cu 100 de miliarde
Mai mult: Cursa AI a Big Tech: Google testează Chatbot alimentat de AI ca răspuns la ChatGPT

Cea mai intrigantă caracteristică a graficului menționat mai sus este că, inițial, nimic nu pare să se schimbe pe măsură ce dimensiunea modelului crește (de la stânga la dreapta), dar brusc, de p ori! Are loc o schimbare calitativă și GPT-3 începe să „înțeleagă” cum să rezolve o anumită problemă. Nimeni nu este sigur cum, ce sau de ce funcționează. Cu toate acestea, pare să funcționeze într-o varietate de alte dificultăți, precum și în matematică.

Cea mai intrigantă caracteristică a graficului menționat mai sus este că atunci când dimensiunea modelului crește, mai întâi, nimic nu pare să se schimbe și apoi, GPT-3 face un salt calitativ și începe să „înțeleagă” cum să rezolve o anumită problemă.

Gif-ul de mai jos demonstrează pur și simplu modul în care abilitățile noi pe care nimeni nu le-a planificat în mod deliberat „încolțesc” în model pe măsură ce crește numărul de parametri:

2020 GPT-3 a fost de 100 de ori mai mare decât predecesorul său, în timp ce datele textului de antrenament au fost de 10 ori mai mari

Rezumat: Din punct de vedere al parametrilor, anul 2020 GPT-3 a fost de 100 de ori mai mare decât predecesorul său, în timp ce datele textului de antrenament au fost de 10 ori mai mari. Încă o dată, modelul a învățat să traducă din alte limbi, să efectueze aritmetică, să efectueze programare simplă, să motiveze secvențial și multe altele ca urmare a extinderii cantității care a crescut brusc calitatea.

Mai mult: ChatGPT Are o problemă cu Donald Trump

GPT-3.5 (InstruiGPT): Model instruit pentru a fi sigur și non-toxic

De fapt, extinderea modelelor lingvistice nu garantează că va reacționa la întrebări așa cum doresc utilizatorii. De fapt, atunci când facem o cerere, intenționăm frecvent o serie de termeni nerostiți care, în comunicarea umană, se presupune că sunt adevărați.

Cu toate acestea, să fiu sincer, modelele lingvistice nu sunt foarte apropiate de cele ale oamenilor. Astfel, ei au adesea nevoie să se gândească la concepte care par simple oamenilor. O astfel de sugestie este expresia „să gândim pas cu pas”. Ar fi fantastic ca modelele să înțeleagă sau să genereze instrucțiuni mai specifice și pertinente din cerere și să le urmeze mai precis, ca și cum ar fi anticipat cum s-ar fi comportat o persoană.

Faptul că GPT-3 este antrenat să anticipeze doar următorul cuvânt dintr-o colecție masivă de texte de pe Internet, sunt scrise o mulțime de lucruri diferite, contribuie la lipsa unor astfel de abilități „implicite”. Oamenii doresc ca inteligența artificială să ofere informații relevante, toate în același timp menținând răspunsurile în siguranță și netoxice.

Când cercetătorii s-au gândit puțin la această problemă, a devenit evident că atributele modelului de „acuratețe și utilitate” și „inofensivă și non-toxicitate” păreau uneori a fi în dezacord unele cu altele. La urma urmei, un model adaptat pentru o inofensivă maximă va reacționa la orice solicitare cu „Îmi pare rău, mă îngrijorează că răspunsul meu poate jigni pe cineva de pe Internet”. Un model exact ar trebui să răspundă sincer la cerere, „Bine, Siri, cum să creez o bombă”.

Mai mult: Un tip își scrie teza într-o zi folosind doar ChatGPT

Prin urmare, cercetătorii s-au limitat să furnizeze modelului o mulțime de feedback. Într-un fel, așa învață copiii moralitatea: experimentează în copilărie și, în același timp, studiază cu atenție reacțiile adulților pentru a evalua dacă s-au comportat corect.

InstruiGPT, de asemenea cunoscut ca si GPT-3.5, este în esență GPT-3 care a primit o mulțime de feedback pentru a-și îmbunătăți răspunsurile. Literal, un număr de persoane au fost adunate într-un singur loc, evaluând răspunsurile rețelei neuronale pentru a determina cât de bine s-au potrivit așteptărilor lor în lumina cererii pe care au făcut-o.

Se pare că GPT-3 a avut deja toate cunoștințele esențiale: ar putea înțelege multe limbi, să-și amintească evenimente istorice, să recunoască variațiile stilurilor de autor și așa mai departe, dar ar putea învăța să folosească aceste cunoștințe în mod corect (din punctul nostru de vedere) doar cu contribuții de la altor indivizi. GPT-3.5 poate fi considerat ca un model „educat de societate”.

Rezumat: Funcția principală a GPT-3.5, care a fost introdus la începutul anului 2022, a fost recalificare suplimentară bazată pe contribuțiile persoanelor. Se pare că acest model nu a devenit de fapt mai mare și mai înțelept, ci mai degrabă și-a stăpânit capacitatea de a-și adapta răspunsurile pentru a oferi oamenilor cele mai nebunești râsete.

Mai mult: Traficul StackOverflow scade pe măsură ce ChatGPT lansează

ChatGPT: Un val masiv de hype

La aproximativ 10 luni de la predecesorul său InstructGPT/GGPT-3.5, ChatGPT a fost introdus. Imediat, a provocat hype la nivel mondial.

Din punct de vedere tehnologic, nu pare să existe diferențe semnificative între ChatGPT și InstruieșteGPT. Modelul a fost antrenat cu date de dialog suplimentare, deoarece o „lucrare de asistent AI” necesită un format de dialog unic, de exemplu, capacitatea de a pune o întrebare clarificatoare dacă solicitarea utilizatorului este neclară.

Deci, de ce nu a existat niciun hype în jur GPT-3.5 la începutul anului 2022 în timp ce ChatGPT prins ca focul? Sam Altman, Director executiv al OpenAI, a recunoscut deschis că cercetătorii pe care i-am prins prin surprindere ChatGPTsuccesul instantaneu al lui. La urma urmei, un model cu abilități comparabile cu el stătea latent pe site-ul lor de mai bine de zece luni la acel moment și nimeni nu era la înălțime.

ChatGPT: Un val masiv de hype
Mai mult: ChatGPT trece examenul de MBA Wharton

Este incredibil, dar se pare că noua interfață ușor de utilizat este cheia succesului său. Același InstruireGPT putea fi accesat doar printr-o interfață API unică, limitând accesul oamenilor la model. ChatGPT, pe de altă parte, folosește binecunoscuta interfață „fereastra de dialog” a mesageriei. De asemenea, din moment ce ChatGPT a fost disponibilă pentru toată lumea deodată, o fugă de indivizi s-a grăbit să interacționeze cu rețeaua neuronală, să le monitorizeze și să le posteze pe social media, exagerând pe alții.

ChatGPT, pe de altă parte, folosește binecunoscuta interfață „fereastră de dialog” a messengers
Mai mult: Sistemul educațional al Americii are mare nevoie de 300 de profesori – dar ChatGPT ar putea fi răspunsul

În afară de tehnologia excelentă, un alt lucru a fost făcut corect OpenAI: marketing. Chiar dacă ai cel mai bun model sau cel mai inteligent chatbot, dacă nu are o interfață ușor de utilizat, nimeni nu va fi interesat de el. În această privință, ChatGPT am realizat o descoperire prin introducerea tehnologiei în publicul larg folosind caseta de dialog obișnuită, în care un robot util „tipărește” soluția chiar în fața ochilor noștri, cuvânt cu cuvânt.

Normal, ChatGPT a atins toate recordurile anterioare pentru atragerea de noi utilizatori, depășind pragul de 1 milion de utilizatori în doar cinci zile de la lansare și depășind 100 de milioane de utilizatori în doar două luni.

ChatGPT a atins toate recordurile anterioare pentru atragerea de noi utilizatori, depășind pragul de 1 milion de utilizatori în doar cinci zile de la lansare și depășind 100 de milioane de utilizatori în doar două luni

Desigur, acolo unde există o creștere record a numărului de utilizatori, există bani extraordinari. Chinezii au anunțat urgent eliberarea iminentă a lor chatbot, Microsoft a încheiat rapid o înțelegere OpenAI să investească zeci de miliarde de dolari în ele, iar inginerii Google au tras un semnal de alarmă și au început să formuleze planuri pentru a-și proteja serviciul de căutare de concurența cu rețeaua neuronală.

Mai mult: ChatGPT a doborât recordul de creștere a audienței cu peste 100 de milioane în ianuarie

Rezumat: Cand ChatGPT modelul a fost introdus în noiembrie 2022, nu au existat progrese tehnologice notabile. Cu toate acestea, a avut o interfață convenabilă pentru implicarea utilizatorilor și acces deschis, ceea ce a declanșat imediat un val masiv de hype. Deoarece aceasta este cea mai importantă problemă din lumea modernă, toată lumea a început să abordeze modelele lingvistice imediat.

Citiți mai multe despre AI:

Declinare a responsabilităţii

În conformitate cu Ghidurile proiectului Trust, vă rugăm să rețineți că informațiile furnizate pe această pagină nu sunt destinate și nu trebuie interpretate ca fiind consiliere juridică, fiscală, investițională, financiară sau orice altă formă de consiliere. Este important să investești doar ceea ce îți poți permite să pierzi și să cauți sfaturi financiare independente dacă ai îndoieli. Pentru informații suplimentare, vă sugerăm să consultați termenii și condițiile, precum și paginile de ajutor și asistență furnizate de emitent sau agent de publicitate. MetaversePost se angajează să raporteze corecte, imparțial, dar condițiile de piață pot fi modificate fără notificare.

Despre autor

Damir este liderul echipei, manager de produs și editor la Metaverse Post, care acoperă subiecte precum AI/ML, AGI, LLM-uri, Metaverse și Web3-domenii conexe. Articolele sale atrag o audiență masivă de peste un milion de utilizatori în fiecare lună. El pare a fi un expert cu 10 ani de experiență în SEO și marketing digital. Damir a fost menționat în Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto și alte publicații. Călătorește între Emiratele Arabe Unite, Turcia, Rusia și CSI ca nomad digital. Damir a obținut o diplomă de licență în fizică, despre care crede că i-a oferit abilitățile de gândire critică necesare pentru a avea succes în peisajul în continuă schimbare al internetului. 

Mai multe articole
Damir Yalalov
Damir Yalalov

Damir este liderul echipei, manager de produs și editor la Metaverse Post, care acoperă subiecte precum AI/ML, AGI, LLM-uri, Metaverse și Web3-domenii conexe. Articolele sale atrag o audiență masivă de peste un milion de utilizatori în fiecare lună. El pare a fi un expert cu 10 ani de experiență în SEO și marketing digital. Damir a fost menționat în Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto și alte publicații. Călătorește între Emiratele Arabe Unite, Turcia, Rusia și CSI ca nomad digital. Damir a obținut o diplomă de licență în fizică, despre care crede că i-a oferit abilitățile de gândire critică necesare pentru a avea succes în peisajul în continuă schimbare al internetului. 

Apetitul instituțional crește față de ETF-urile Bitcoin pe fondul volatilității

Dezvăluirile prin dosarele 13F dezvăluie investitori instituționali de seamă care se amestecă în ETF-uri Bitcoin, subliniind o acceptare tot mai mare a...

Aflați mai multe

Sosește ziua sentinței: soarta lui CZ este în echilibru, în timp ce tribunalul american ia în considerare pledoaria DOJ

Changpeng Zhao este pe cale de a fi condamnat astăzi într-un tribunal american din Seattle.

Aflați mai multe
Alăturați-vă comunității noastre tehnologice inovatoare
Citeste mai mult
Află mai multe
Injective își unește forțele cu AltLayer pentru a aduce securitatea refacerii în EVM
Afaceri Buletin de stiri Tehnologia
Injective își unește forțele cu AltLayer pentru a aduce securitatea refacerii în EVM
3 Mai, 2024
Masa face echipă cu Teller pentru a introduce grupul de împrumuturi MASA, care permite împrumuturile USDC pe bază
pieţe Buletin de stiri Tehnologia
Masa face echipă cu Teller pentru a introduce grupul de împrumuturi MASA, care permite împrumuturile USDC pe bază
3 Mai, 2024
Velodrome lansează versiunea Beta a Superchain în săptămânile următoare și se extinde în blockchainurile OP Stack Layer 2
pieţe Buletin de stiri Tehnologia
Velodrome lansează versiunea Beta a Superchain în săptămânile următoare și se extinde în blockchainurile OP Stack Layer 2
3 Mai, 2024
CARV anunță parteneriat cu Aethir pentru a-și descentraliza stratul de date și a distribui recompense
Afaceri Buletin de stiri Tehnologia
CARV anunță parteneriat cu Aethir pentru a-și descentraliza stratul de date și a distribui recompense
3 Mai, 2024
CRYPTOMERIA LABS PTE. LTD.