Nyheds rapport Teknologier
Marts 09, 2023

Udviklingen af ​​chatbots fra T9-Era og GPT-1 til ChatGPT

For nylig er vi næsten dagligt blevet bombarderet med nyhedsindlæg om de seneste rekorder, der er slået af store neurale netværk, og hvorfor stort set ingens job er sikkert. Ikke desto mindre er meget få mennesker klar over, hvordan neurale netværk kan lide ChatGPT faktisk fungerer.

Så slap af. Beklager ikke over dine jobmuligheder endnu. I dette indlæg vil vi forklare alt, hvad der er at vide om neurale netværk på en måde, som alle kan forstå.

Udviklingen af ​​chatbots fra T9-Era og GPT-1 til ChatGPT og Bart

En advarsel før vi starter: Dette stykke er et samarbejde. Hele den tekniske del er skrevet af en AI-specialist, der er velkendt blandt AI-mængden.

Da ingen endnu har skrevet et uddybende stykke om hvordan ChatGPT værker, der ville forklare, i lægmandssprog, ins og outs af neurale netværk, besluttede vi at gøre dette for dig. Vi har forsøgt at holde dette indlæg så enkelt som muligt, så læserne kan komme ud af at læse dette indlæg med en generel forståelse af principperne for sproglige neurale netværk. Vi vil undersøge hvordan sprogmodeller arbejde der, hvordan neurale netværk udviklede sig til at besidde deres nuværende evner, og hvorfor ChatGPT's eksplosive popularitet overraskede selv dets skabere.

Lad os begynde med det grundlæggende. At forstå ChatGPT fra et teknisk synspunkt skal vi først forstå, hvad det ikke er. Dette er ikke Marvel Comics' Jarvis; det er ikke et rationelt væsen; det er ikke en genie. Forbered dig på at blive chokeret: ChatGPT er faktisk din mobiltelefons T9 på steroider! Ja, det er det: Forskere omtaler begge disse teknologier som "sprogmodeller." Alt, hvad neurale netværk gør, er at gætte, hvilket ord der skal komme næste gang.

Den originale T9-teknologi fremskyndede kun telefonopkald med trykknapper ved at gætte det aktuelle input i stedet for det næste ord. Teknologien udviklede sig imidlertid, og ved smartphones æra i begyndelsen af ​​2010'erne var den i stand til at overveje kontekst og ordet før, tilføje tegnsætning og tilbyde et udvalg af ord, der kunne gå videre. Det er præcis den analogi, vi laver med sådan en "avanceret" version af T9 eller autokorrektur.

Som følge heraf kan både T9 på et smartphone-tastatur og ChatGPT er blevet trænet til at løse en latterligt simpel opgave: forudsiger det næste ord. Dette er kendt som "sprogmodellering", og det opstår, når der træffes en beslutning om, hvad der skal skrives næste gang baseret på eksisterende tekst. Sprogmodeller skal operere på sandsynligheden for forekomsten af ​​specifikke ord for at kunne lave sådanne forudsigelser. Når alt kommer til alt, ville du blive irriteret, hvis din telefons autofyld bare kastede dig helt tilfældige ord med samme sandsynlighed.

For klarhedens skyld, lad os forestille os, at du modtager en besked fra en ven. Der står: "Hvad er dine planer for aftenen?" Som svar begynder du at skrive: "Jeg skal...", og det er her, T9 kommer ind. Det kan komme op med helt useriøse ting som "jeg skal til månen", der kræves ingen kompleks sprogmodel. Gode ​​smartphone-autofuldførelsesmodeller foreslår langt mere relevante ord.

Så hvordan ved T9, hvilke ord der er mere tilbøjelige til at følge den allerede indskrevne tekst, og hvad der tydeligvis ikke giver mening? For at besvare dette spørgsmål skal vi først undersøge de grundlæggende driftsprincipper for de enkleste neurale netværk.

Mere: ChatGPT API er nu tilgængelig, åbner slusen for udviklere

Hvordan AI-modeller forudsiger det næste ord

Lad os begynde med et enklere spørgsmål: Hvordan forudsiger man nogle tings indbyrdes afhængighed af andre? Antag, at vi ønsker at lære en computer at forudsige en persons vægt baseret på deres højde - hvordan skal vi gøre det? Vi bør først identificere interesseområderne og derefter indsamle data, som vi kan søge efter interesseafhængighederne på og derefter forsøge at "træne" en eller anden matematisk model at lede efter mønstre i disse data.

Hvordan AI-modeller forudsiger det næste ord

For at sige det enkelt, T9 eller ChatGPT er bare smart udvalgte ligninger, der forsøger at forudsige et ord (Y) baseret på sættet af tidligere ord (X), der er indført i modelinputtet. Når man træner a sprogmodel på et datasæt er hovedopgaven at vælge koefficienter for disse x'er, der virkelig afspejler en form for afhængighed (som i vores eksempel med højde og vægt). Og ved store modeller vil vi få en bedre forståelse af dem med et stort antal parametre. Inden for kunstig intelligens, omtales de som store sprogmodeller, eller LLM'er for korte. Som vi vil se senere, er en stor model med mange parametre essentiel for at generere god tekst.

Forresten, hvis du undrer dig over, hvorfor vi konstant taler om at "forudsige et næste ord", mens ChatGPT reagerer hurtigt med hele tekstafsnit, svaret er enkelt. Nok kan sprogmodeller generere lange tekster uden besvær, men hele processen foregår ord for ord. Efter hvert nyt ord er genereret, kører modellen simpelthen hele teksten igen med det nye ord for at generere det næste ord. Processen gentages igen og igen, indtil du får hele svaret.

Mere: ChatGPT Kan forårsage irreversibel menneskelig degeneration

Hvorfor bliver vi ved med at forsøge at finde de 'korrekte' ord for en given tekst?

Sprogmodeller forsøger at forudsige sandsynligheden for forskellige ord, der kan forekomme i en given tekst. Hvorfor er det nødvendigt, og hvorfor kan du ikke bare blive ved med at lede efter det "mest korrekte" ord? Lad os prøve et simpelt spil for at illustrere, hvordan denne proces fungerer.

Reglerne er som følger: Jeg foreslår, at du fortsætter sætningen: "Den 44. præsident for USA (og den første afroamerikaner i denne stilling) er Barak...". Hvilket ord skal gå videre? Hvad er sandsynligheden for, at det vil ske?

Hvorfor bliver vi ved med at forsøge at finde de 'korrekte' ord for en given tekst?

Hvis du med 100 % sikkerhed forudsagde, at det næste ord ville være "Obama", tog du fejl! Og pointen her er ikke, at der er en anden mytisk Barak; det er meget mere trivielt. Officielle dokumenter bruger normalt præsidentens fulde navn. Det betyder, at det, der følger efter Obamas fornavn, ville være hans mellemnavn, Hussein. Så i vores sætning bør en korrekt trænet sprogmodel forudsige, at "Obama" kun vil være det næste ord med en betinget sandsynlighed på 90% og allokere de resterende 10%, hvis teksten fortsættes af "Hussein" (hvorefter Obama vil følg med en sandsynlighed tæt på 100 %).

Og nu kommer vi til et spændende aspekt af sprogmodeller: De er ikke immune over for kreative streger! Faktisk, når de genererer hvert næste ord, vælger sådanne modeller det på en "tilfældig" måde, som om de kaster en terning. Sandsynligheden for, at forskellige ord "falder ud" svarer mere eller mindre til de sandsynligheder, der foreslås af de ligninger, der er indsat i modellen. Disse er afledt af det enorme udvalg af forskellige tekster, modellen blev fodret med.

Det viser sig, at en model kan reagere forskelligt på de samme anmodninger, ligesom en levende person. Forskere har generelt forsøgt at tvinge neuroner til altid at vælge det "mest sandsynlige" næste ord, men selvom dette virker rationelt på overfladen, klarer sådanne modeller sig dårligere i virkeligheden. Det ser ud til, at en rimelig portion tilfældighed er fordelagtig, da den øger variabiliteten og kvaliteten af ​​svarene.

Forskere har generelt forsøgt at tvinge neuroner til altid at vælge det "mest sandsynlige" næste ord, men selvom dette virker rationelt på overfladen, klarer sådanne modeller sig dårligere i virkeligheden.
Mere: ChatGPT Lærer at kontrollere droner og robotter, mens den overvejer næste generations AI

Vores sprog har en unik struktur med forskellige sæt regler og undtagelser. Der er rim og grund til, hvilke ord der optræder i en sætning, de opstår ikke bare tilfældigt. Alle lærer ubevidst reglerne for det sprog, de bruger i deres tidlige formeringsår.

En anstændig model bør tage højde for sprogets brede vifte af beskrivende egenskaber. Modellens evnen til at opnå de ønskede resultater afhænger af, hvor præcist det beregner sandsynligheden for ord baseret på kontekstens subtiliteter (det forrige afsnit af teksten, der forklarer omstændighederne).

modellens evne til at producere de ønskede resultater afhænger af, hvor præcist den beregner sandsynligheden for ord baseret på subtiliteterne i konteksten (det foregående afsnit af teksten, der forklarer omstændighederne).

Resumé: Simple sprogmodeller, som er et sæt ligninger trænet på en enorm mængde data til at forudsige det næste ord baseret på inputkildeteksten, er blevet implementeret i "T9/Autofill"-funktionaliteten på smartphones siden begyndelsen af ​​2010'erne.

Mere: Kina forbyder virksomheder at bruge ChatGPT Efter "True News"-skandalen

GPT-1: Sprænger industrien i luften

Lad os gå væk fra T9-modeller. Mens du sandsynligvis læser dette stykke til lære om ChatGPT, først skal vi diskutere begyndelsen af GPT modelfamilie.

GPT står for "generative pre-trained transformer", mens den neural netværksarkitektur udviklet af Googles ingeniører i 2017 er kendt som Transformeren. Transformeren er en universel computermekanisme, der accepterer et sæt sekvenser (data) som input og producerer det samme sæt sekvenser, men i en anden form, der er blevet ændret af en eller anden algoritme.

Betydningen af ​​Transformers skabelse kan ses i, hvor aggressivt den blev vedtaget og anvendt inden for alle områder af kunstig intelligens (AI): oversættelse, billede, lyd og videobehandling. Sektoren for kunstig intelligens (AI) havde en kraftig omvæltning, idet den bevægede sig fra den såkaldte "AI-stagnation" til hurtig udvikling og overvinde stagnation.

Mere: GPT-4-Baseret ChatGPT udkonkurrerer GPT-3 med en faktor på 570

Transformerens vigtigste styrke består af moduler, der er nemme at skalere. Når de blev bedt om at behandle en stor mængde tekst på én gang, ville de gamle, præ-transformere sprogmodeller bremse. Transformers neurale netværk klarer på den anden side denne opgave langt bedre.

Tidligere skulle inputdata behandles sekventielt eller én ad gangen. Modellen ville ikke beholde dataene: Hvis den fungerede med en en-sides fortælling, ville den glemme teksten efter at have læst den. I mellemtiden gør Transformeren det muligt for en at se alt på én gang, producerer markant flere fantastiske resultater.

Det er det, der muliggjorde et gennembrud i behandlingen af ​​tekster i neurale netværk. Som et resultat glemmer modellen ikke længere: den genbruger tidligere skrevet materiale, forstår bedre konteksten og, mest afgørende, er den i stand til at skabe forbindelser mellem ekstremt store mængder data ved at parre ord sammen.

Sammendrag: GPT-1, som debuterede i 2018, demonstrerede, at et neuralt netværk kunne producere tekster ved hjælp af Transformer-designet, som har forbedret skalerbarheden og effektiviteten markant. Hvis det var muligt at øge mængden og kompleksiteten af ​​sprogmodeller, ville dette give en betydelig reserve.

Mere: 6 AI ChatBot-problemer og udfordringer: ChatGPT, Bard, Claude

GPT-2: De store sprogmodellers tidsalder

Sprogmodeller behøver ikke at være specielt tagget på forhånd og kan "fodres" med alle tekstdata, hvilket gør dem ekstremt fleksible. Hvis du tænker lidt over det, virker det rimeligt, at vi ønsker at bruge dets evner. Enhver tekst, der nogensinde er blevet skrevet, fungerer som færdige træningsdata. Da der allerede er så mange sekvenser af typen "en masse nogle ord og sætninger => det næste ord efter dem", er dette ikke overraskende.

GPT-2: De store sprogmodellers tidsalder
Mere: ChatGPT's Evil Elter Ego Awakened på Reddit

Lad os nu også huske på, at Transformers-teknologien er testet på GPT-1 viste sig at være ret vellykket med hensyn til skalering: Den er betydeligt mere effektiv end sine forgængere til at håndtere store mængder data. Det viser sig, at forskere fra OpenAI kom til samme konklusion i 2019: "Det er på tide at skære i dyre sprogmodeller!"

træningsdatasæt og modellen Især størrelse blev valgt som to afgørende områder, hvor GPT-2 skulle forbedres drastisk.

Da der ikke var store offentlige tekstdatasæt af høj kvalitet på det tidspunkt, der var specielt designet til træning af sprogmodeller, måtte hvert hold af AI-eksperter manipulere dataene på egen hånd. Det OpenAI folk tog derefter en beslutning om at gå til Reddit, det mest populære engelsksprogede forum, og udtrække alle hyperlinks fra hvert enkelt indlæg, der havde mere end tre likes. Der var næsten 8 millioner af disse links, og de downloadede tekster vejede i alt 40 terabyte.

GPT-2: De store sprogmodellers tidsalder
Mere: Microsoft vil kommercialisere ChatGPT som det søger at hjælpe andre virksomheder

Hvilket antal parametre beskrev ligningen, der beskriver de største GPT-2 model i 2019 har? Måske hundrede tusinde eller nogle få millioner? Nå, lad os gå endnu længere: Formlen indeholdt op til 1.5 milliarder sådanne parametre. Det vil tage 6 terabyte at bare skrive så mange tal ind i en fil og gemme den på din computer. Modellen behøver ikke at huske denne tekst som en helhed, så på den ene side er dette langt mindre end den samlede mængde af tekstdataarrayet, som trænede modellen på; det er nok for den blot at finde nogle afhængigheder (mønstre, regler), der kan isoleres fra tekster skrevet af mennesker.

Jo bedre modellen forudsiger sandsynlighed og jo flere parametre den indeholder, jo mere kompleks er ligningen koblet ind i modellen. Dette giver en troværdig tekst. Derudover GPT-2 model begyndte at fungere så godt, at OpenAI forskere var endda tilbageholdende med at afsløre modellen i det fri af sikkerhedsmæssige årsager.

Det er meget interessant, at når en model bliver større, begynder den pludselig at få nye kvaliteter (såsom evnen til at skrive sammenhængende, meningsfulde essays i stedet for blot at diktere det næste ord i telefonen).

Ændringen fra kvantitet til kvalitet sker på dette tidspunkt. Desuden sker det helt ulineært. For eksempel har en tredobling af antallet af parametre fra 115 til 350 millioner ingen mærkbar indflydelse på modellens evne til at løse problemer præcist. En fordobling til 700 millioner giver dog et kvalitativt spring, hvor det neurale netværk "ser lyset" og begynder at forbløffe alle med dets evne til at udføre opgaver.

Resumé: I 2019 blev der introduceret GPT-2, som 10 gange overgik sin forgænger med hensyn til modellens størrelse (antal parametre) og mængden af ​​træningstekstdata. På grund af dette kvantitative fremskridt erhvervede modellen uforudsigeligt kvalitativt nye talenter, som f.eks. skrive lange essays med en klar mening og løse udfordrende problemer, der kalder på grundlaget for et verdensbillede.

Mere: Google-anmodninger er omkring syv gange billigere end ChatGPT, som koster 2 øre

GPT-3: Smart som helvede

Generelt er 2020-udgivelsen af GPT-3, den næste generation i serien, kan allerede prale af 116 gange flere parametre - op til 175 milliarder og forbløffende 700 terabyte.

GPT-3 træningsdatasættet blev også udvidet, omend ikke så drastisk. Det steg med næsten 10 gange til 420 gigabyte og indeholder nu et stort antal bøger, Wikipædia-artikler og andre tekster fra andre hjemmesider. Det ville tage et menneske omkring 50 års nonstop læsning, hvilket gør det til en umulig bedrift.

Du bemærker en spændende forskel med det samme: i modsætning til GPT-2, selve modellen er nu 700 GB større end hele rækken af ​​tekst til dens træning (420 GB). Det viser sig på en måde at være et paradoks: i dette tilfælde, når "neurobrain" studerer rå data, genererer det information om forskellige indbyrdes afhængigheder inden for dem, der er mere volumetrisk rigelige end de originale data.

GPT-3: Smart som helvede
Mere: ChatGPT Eksperiment: AI ville hellere dræbe millioner af mennesker end at fornærme nogen

Som et resultat af modellens generalisering er den nu i stand til at ekstrapolere endnu mere succesfuldt end før og er succesfuld selv i tekstgenereringsopgaver, der forekom sjældent eller slet ikke under træning. Nu behøver du ikke at lære modellen, hvordan man tackler et bestemt problem; det er nok at beskrive dem og give et par eksempler, og GPT-3 vil straks lære.

"universel hjerne" i form af GPT-3 til sidst besejrede mange tidligere specialiserede modeller. For eksempel, GPT-3 begyndte at oversætte tekster fra fransk eller tysk hurtigere og mere præcist end nogen tidligere neurale netværk skabt specielt til dette formål. Hvordan? Lad mig minde dig om, at vi diskuterer en sproglig model, hvis eneste formål var at forsøge at forudsige det følgende ord i en given tekst.

Endnu mere forbløffende, GPT-3 var i stand til at lære sig selv … matematik! Grafen nedenfor illustrerer, hvor godt neurale netværk udfører på opgaver, herunder addition og subtraktion samt multiplikation af heltal op til fem cifre med varierende antal parametre. Som du kan se, begynder neurale netværk pludselig at "kunne" i matematik, mens de går fra modeller med 10 milliarder parametre til modeller med 100 milliarder.

neurale netværk begynder pludselig at "kunne" i matematik, mens de går fra modeller med 10 milliarder parametre til modeller med 100 milliarder
Mere: Big Tech's AI Race: Google tester AI-drevet chatbot som svar på ChatGPT

Det mest spændende træk ved den førnævnte graf er, hvordan intet i første omgang ser ud til at ændre sig, efterhånden som modellens størrelse øges (fra venstre mod højre), men pludselig p gange! Der sker et kvalitativt skift, og GPT-3 begynder at "forstå", hvordan man løser et bestemt problem. Ingen er sikker på hvordan, hvad eller hvorfor det fungerer. Alligevel ser det ud til at virke i en række andre vanskeligheder såvel som i matematik.

Det mest spændende ved den førnævnte graf er, at når modellens størrelse øges, ser det først ud til, at intet ændrer sig, og derefter, GPT-3 tager et kvalitativt spring og begynder at "forstå", hvordan man løser et bestemt problem.

GIF'en nedenfor viser blot, hvordan nye evner, som ingen bevidst planlagde, "spirer" i modellen, efterhånden som antallet af parametre stiger:

Den 2020 GPT-3 var 100 gange større end sin forgænger, mens træningstekstdataene var 10 gange større

Sammendrag: Med hensyn til parametre, 2020 GPT-3 var 100 gange større end sin forgænger, mens træningstekstdataene var 10 gange større. Endnu en gang lærte modellen at oversætte fra andre sprog, udføre aritmetik, udføre simpel programmering, ræsonnere sekventielt og meget mere som et resultat af udvidelsen i kvantitet, der brat øgede kvaliteten.

Mere: ChatGPT Har et problem med Donald Trump

GPT-3.5 (InstruereGPT): Model trænet til at være sikker og ikke-giftig

I virkeligheden garanterer udvidelse af sprogmodeller ikke, at den vil reagere på henvendelser, som brugerne ønsker det. Faktisk, når vi fremsætter en anmodning, har vi ofte til hensigt en række uudtalte udtryk, som i menneskelig kommunikation antages at være sande.

Men for at være ærlig er sprogmodeller ikke meget tæt på menneskers. Derfor har de ofte brug for at tænke på begreber, der forekommer enkle for folk. Et sådant forslag er sætningen, "lad os tænke trin for trin." Det ville være fantastisk, hvis modellerne forstod eller genererede mere specifikke og relevante instruktioner fra anmodningen og fulgte dem mere præcist, som om de foregreb, hvordan en person ville have opført sig.

Det faktum, at GPT-3 er trænet til kun at forudse det næste ord i en massiv samling af tekster fra internettet, er der skrevet en masse forskellige ting, bidrager til manglen på sådanne "standard"-evner. Folk vil have kunstig intelligens til at give relevant information, alt imens de holder svarene sikre og ikke-giftige.

Da forskere overvejede dette spørgsmål, blev det tydeligt, at modellens egenskaber "nøjagtighed og anvendelighed" og "ufarlighed og ikke-toksicitet" nogle gange så ud til at være i modstrid med hinanden. Når alt kommer til alt, vil en model, der er indstillet til maksimal harmløshed, reagere på enhver prompt med "Beklager, jeg er bekymret for, at mit svar kan støde nogen på internettet." En nøjagtig model bør ærligt svare på anmodningen: "Okay, Siri, hvordan laver man en bombe."

Mere: En fyr skriver sit speciale på én dag ved kun at bruge ChatGPT

Forskerne var derfor begrænset til blot at give modellen en masse feedback. I en vis forstand er det præcis sådan, børn lærer moral: De eksperimenterer i barndommen, og samtidig studerer de omhyggeligt voksnes reaktioner for at vurdere, om de opførte sig korrekt.

InstruereGPT, også kendt som GPT-3.5, er i det væsentlige GPT-3 der fik en masse feedback for at forbedre sine svar. Bogstaveligt talt blev en række personer samlet på ét sted, der vurderede neurale netværkssvar for at bestemme, hvor godt de matchede deres forventninger i lyset af den anmodning, de fremsatte.

Det viser sig at GPT-3 har allerede allerede haft al den væsentlige viden: Den kunne forstå mange sprog, genkalde historiske begivenheder, genkende variationerne i forfatterstile og så videre, men den kunne kun lære at bruge denne viden korrekt (fra vores synspunkt) med input fra andre individer. GPT-3.5 kan opfattes som en "samfundsuddannet" model.

Resumé: Den primære funktion af GPT-3.5, som blev indført i begyndelsen af ​​2022, var yderligere omskoling baseret på input fra enkeltpersoner. Det viser sig, at denne model faktisk ikke er blevet større og klogere, men snarere har den mestret evnen til at skræddersy sine svar til at give folk de vildeste grin.

Mere: StackOverflow-trafik styrtdykker som ChatGPT lanceringer

ChatGPT: En massiv bølge af hype

Cirka 10 måneder efter sin forgænger InstructGPT/GGPT-3. 5, ChatGPT Blev introduceret. Umiddelbart forårsagede det global hype.

Fra et teknologisk synspunkt ser det ikke ud til, at der er nogen væsentlige forskelle mellem dem ChatGPT og instruereGPT. Modellen blev trænet med yderligere dialogdata, da et "AI-assistentjob" kræver et unikt dialogformat, for eksempel muligheden for at stille et afklarende spørgsmål, hvis brugerens anmodning er uklar.

Så hvorfor var der ingen hype omkring GPT-3.5 i begyndelsen af ​​2022 mens ChatGPT fanget som en steppebrand? Sam Altman, Administrerende direktør for OpenAI, erkendte åbent, at de forskere, vi overraskede ChatGPT's øjeblikkelige succes. Når alt kommer til alt, havde en model med evner svarende til den ligget i dvale på deres hjemmeside i mere end ti måneder på det tidspunkt, og ingen var klar til opgaven.

ChatGPT: En massiv bølge af hype
Mere: ChatGPT består Wharton MBA eksamen

Det er utroligt, men det ser ud til, at den nye brugervenlige grænseflade er nøglen til dens succes. Samme InstruktionGPT kun kunne tilgås via en unik API-grænseflade, hvilket begrænser folks adgang til modellen. ChatGPT, ob på den anden side, bruger den velkendte "dialogvindue"-grænseflade af messengers. Også siden ChatGPT var tilgængelig for alle på én gang, skyndte et stormløb af enkeltpersoner at interagere med det neurale netværk, screene dem og poste dem på sociale medier, hyping op andre.

ChatGPT, ob på den anden side, bruger den velkendte "dialog window"-grænseflade af messengers
Mere: Amerikas uddannelsessystem har hårdt brug for 300 lærere - men ChatGPT kunne være svaret

Bortset fra fantastisk teknologi, blev en anden ting gjort lige ved OpenAI: markedsføring. Selvom du har den bedste model eller den mest intelligente chatbot, hvis den ikke har en brugervenlig grænseflade, vil ingen være interesseret i den. I denne forbindelse ChatGPT opnået et gennembrud ved at introducere teknologien til den brede offentlighed ved hjælp af den sædvanlige dialogboks, hvor en hjælpsom robot "printer" løsningen lige foran vores øjne, ord for ord.

Ikke overraskende, ChatGPT ramte alle tidligere rekorder for at tiltrække nye brugere og overgik milepælen på 1 million brugere på kun fem dage efter lanceringen og krydsede 100 millioner brugere på kun to måneder.

ChatGPT ramte alle tidligere rekorder for at tiltrække nye brugere, overgå milepælen på 1 million brugere på kun fem dage efter lanceringen og krydsede 100 millioner brugere på kun to måneder

Selvfølgelig, hvor der er en rekordstor stigning i brugere, er der enorme penge. Kineserne annoncerede omgående den forestående frigivelse af deres egne chatbot, indgik Microsoft hurtigt en aftale med OpenAI at investere titusindvis af milliarder af dollars i dem, og Googles ingeniører slog alarm og begyndte at formulere planer for at beskytte deres søgetjeneste mod konkurrencen med det neurale netværk.

Mere: ChatGPT slog rekorden for publikumsvækst med over 100+ millioner i januar

Sammendrag: Når ChatGPT modellen blev introduceret i november 2022, var der ingen nævneværdige teknologiske fremskridt. Det havde dog en praktisk grænseflade til brugerengagement og åben adgang, hvilket straks udløste en massiv bølge af hype. Da dette er det mest afgørende problem i den moderne verden, begyndte alle at tackle sprogmodeller med det samme.

Læs mere om AI:

Ansvarsfraskrivelse

I tråd med den Trust Project retningslinjer, bemærk venligst, at oplysningerne på denne side ikke er beregnet til at være og ikke skal fortolkes som juridiske, skattemæssige, investeringsmæssige, finansielle eller nogen anden form for rådgivning. Det er vigtigt kun at investere, hvad du har råd til at tabe, og at søge uafhængig finansiel rådgivning, hvis du er i tvivl. For yderligere information foreslår vi at henvise til vilkårene og betingelserne samt hjælpe- og supportsiderne fra udstederen eller annoncøren. MetaversePost er forpligtet til nøjagtig, objektiv rapportering, men markedsforholdene kan ændres uden varsel.

Om forfatteren

Damir er teamleder, produktchef og redaktør på Metaverse Post, der dækker emner som AI/ML, AGI, LLM'er, Metaverse og Web3-relaterede felter. Hans artikler tiltrækker et massivt publikum på over en million brugere hver måned. Han ser ud til at være en ekspert med 10 års erfaring i SEO og digital markedsføring. Damir er blevet nævnt i Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto og andre publikationer. Han rejser mellem UAE, Tyrkiet, Rusland og SNG som en digital nomade. Damir tog en bachelorgrad i fysik, som han mener har givet ham de kritiske tænkningskompetencer, der er nødvendige for at få succes i internettets evigt skiftende landskab. 

Flere artikler
Damir Yalalov
Damir Yalalov

Damir er teamleder, produktchef og redaktør på Metaverse Post, der dækker emner som AI/ML, AGI, LLM'er, Metaverse og Web3-relaterede felter. Hans artikler tiltrækker et massivt publikum på over en million brugere hver måned. Han ser ud til at være en ekspert med 10 års erfaring i SEO og digital markedsføring. Damir er blevet nævnt i Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto og andre publikationer. Han rejser mellem UAE, Tyrkiet, Rusland og SNG som en digital nomade. Damir tog en bachelorgrad i fysik, som han mener har givet ham de kritiske tænkningskompetencer, der er nødvendige for at få succes i internettets evigt skiftende landskab. 

Hot Stories
Tilmeld dig vores nyhedsbrev.
Seneste Nyheder

Institutionel appetit vokser mod Bitcoin ETF'er midt i volatilitet

Afsløringer gennem 13F-arkivering afslører bemærkelsesværdige institutionelle investorer, der dytter i Bitcoin ETF'er, hvilket understreger en voksende accept af ...

Vide mere

Straffeudmålingsdagen ankommer: CZ's skæbne hænger i balance, da amerikansk domstol overvejer DOJ's anbringende

Changpeng Zhao står klar til at blive dømt ved en amerikansk domstol i Seattle i dag.

Vide mere
Tilmeld dig vores innovative teknologifællesskab
Læs mere
Læs mere
Injective slår sig sammen med AltLayer for at give inEVM genskabende sikkerhed
Forretning Nyheds rapport Teknologier
Injective slår sig sammen med AltLayer for at give inEVM genskabende sikkerhed
Maj 3, 2024
Masa går sammen med Teller for at introducere MASA Lending Pool, muliggør USDC-lån på base
Markeder Nyheds rapport Teknologier
Masa går sammen med Teller for at introducere MASA Lending Pool, muliggør USDC-lån på base
Maj 3, 2024
Velodrome lancerer Superchain Beta-version i de kommende uger og udvider på tværs af OP Stack Layer 2 Blockchains
Markeder Nyheds rapport Teknologier
Velodrome lancerer Superchain Beta-version i de kommende uger og udvider på tværs af OP Stack Layer 2 Blockchains
Maj 3, 2024
CARV annoncerer partnerskab med Aethir for at decentralisere sit datalag og uddele belønninger
Forretning Nyheds rapport Teknologier
CARV annoncerer partnerskab med Aethir for at decentralisere sit datalag og uddele belønninger
Maj 3, 2024