Notizie Tecnologia
09 Marzo 2023

L'evoluzione dei chatbot dall'era T9 e GPT-1 a ChatGPT

Di recente, siamo stati bombardati quasi quotidianamente da post di notizie sugli ultimi record battuti da reti neurali su larga scala e sul perché praticamente il lavoro di nessuno è al sicuro. Tuttavia, pochissime persone sono consapevoli di come piacciono le reti neurali ChatGPT effettivamente operare.

Quindi, rilassati. Non lamentarti ancora delle tue prospettive di lavoro. In questo post, spiegheremo tutto ciò che c'è da sapere sulle reti neurali in un modo che tutti possono comprendere.

L'evoluzione dei chatbot dall'era T9 e GPT-1 a ChatGPT e Barto

Un avvertimento prima di iniziare: questo pezzo è una collaborazione. L'intera parte tecnica è stata scritta da uno specialista di intelligenza artificiale ben noto tra il pubblico di intelligenza artificiale.

Dal momento che nessuno ha ancora scritto un pezzo approfondito su come ChatGPT lavori che spiegherebbero, in parole povere, i dettagli delle reti neurali, abbiamo deciso di farlo per te. Abbiamo cercato di mantenere questo post il più semplice possibile in modo che i lettori possano uscire dalla lettura di questo post con una comprensione generale dei principi delle reti neurali del linguaggio. Esploreremo come modelli linguistici lavorare lì, come le reti neurali si sono evolute per possedere le loro capacità attuali e perché ChatGPTLa popolarità esplosiva di ha sorpreso anche i suoi creatori.

Iniziamo con le basi. Capire ChatGPT dal punto di vista tecnico, bisogna prima capire cosa non è. Questo non è Jarvis della Marvel Comics; non è un essere razionale; non è un genio. Preparati a essere scioccato: ChatGPT è in realtà il T9 del tuo cellulare sotto steroidi! Sì, lo è: gli scienziati si riferiscono a entrambe queste tecnologie come "modelli linguistici". Tutto ciò che fanno le reti neurali è indovinare quale parola dovrebbe venire dopo.

La tecnologia T9 originale accelerava solo la composizione del telefono a pulsante indovinando l'input corrente anziché la parola successiva. Tuttavia, la tecnologia è avanzata e, con l'era degli smartphone nei primi anni 2010, è stata in grado di considerare il contesto e la parola precedente, aggiungere punteggiatura e offrire una selezione di parole che potrebbero essere successive. Questa è esattamente l'analogia che stiamo facendo con una versione così "avanzata" di T9 o correzione automatica.

Di conseguenza, sia T9 sulla tastiera di uno smartphone che ChatGPT sono stati addestrati per risolvere un compito ridicolmente semplice: prevedere la parola successiva. Questo è noto come "modellazione del linguaggio" e si verifica quando viene presa una decisione su ciò che dovrebbe essere scritto successivamente sulla base del testo esistente. I modelli linguistici devono operare sulle probabilità dell'occorrenza di parole specifiche per fare tali previsioni. Dopotutto, saresti infastidito se il riempimento automatico del tuo telefono ti lanciasse parole completamente casuali con la stessa probabilità.

Per chiarezza, immaginiamo di ricevere un messaggio da un amico. Dice: "Quali sono i tuoi programmi per la serata?" In risposta, inizi a digitare: "Vado a...", ed è qui che entra in gioco T9. Potrebbe venire fuori cose completamente prive di senso come "Vado sulla luna", non è richiesto alcun modello linguistico complesso. I buoni modelli di completamento automatico per smartphone suggeriscono parole molto più pertinenti.

Quindi, come fa T9 a sapere quali parole hanno maggiori probabilità di seguire il testo già digitato e cosa chiaramente non ha senso? Per rispondere a questa domanda, dobbiamo prima esaminare i principi fondamentali di funzionamento del più semplice reti neurali.

Di più: ChatGPT L'API è ora disponibile, apre la porta per gli sviluppatori

In che modo i modelli di intelligenza artificiale prevedono la parola successiva

Cominciamo con una domanda più semplice: come si fa a prevedere l'interdipendenza di alcune cose da altre? Supponiamo di voler insegnare a un computer a prevedere il peso di una persona in base alla sua altezza: come dovremmo procedere? Dovremmo prima identificare le aree di interesse e quindi raccogliere i dati su cui cercare le dipendenze di interesse e quindi tentare di "addestrare" qualche modello matematico per cercare modelli all'interno di questi dati.

In che modo i modelli di intelligenza artificiale prevedono la parola successiva

Per dirla semplicemente, T9 o ChatGPT sono solo equazioni scelte in modo intelligente che tentano di farlo predire una parola (Y) basata sull'insieme delle parole precedenti (X) inserite nell'input del modello. Durante l'allenamento a modello linguistico su un set di dati, il compito principale è selezionare i coefficienti per queste x che riflettano veramente un qualche tipo di dipendenza (come nel nostro esempio con altezza e peso). E dai modelli di grandi dimensioni, otterremo una migliore comprensione di quelli con un gran numero di parametri. Nel campo della intelligenza artificiale, sono indicati come modelli linguistici di grandi dimensioni, o LLM in breve. Come vedremo più avanti, un modello grande con molti parametri è essenziale per generare un buon testo.

A proposito, se ti stai chiedendo perché parliamo costantemente di "prevedere una parola successiva" mentre ChatGPT risponde rapidamente con interi paragrafi di testo, la risposta è semplice. Certo, i modelli linguistici possono generare testi lunghi senza difficoltà, ma l'intero processo è parola per parola. Dopo che ogni nuova parola è stata generata, il modello riesegue semplicemente tutto il testo con la nuova parola per generare la parola successiva. Il processo si ripete più e più volte finché non ottieni l'intera risposta.

Di più: ChatGPT Potrebbe causare una degenerazione umana irreversibile

Perché continuiamo a cercare di trovare le parole "corrette" per un dato testo?

I modelli linguistici tentano di prevedere le probabilità di parole diverse che possono verificarsi in un dato testo. Perché è necessario e perché non puoi semplicemente continuare a cercare la parola "più corretta"? Proviamo un semplice gioco per illustrare come funziona questo processo.

Le regole sono le seguenti: Vi propongo di continuare la frase: “Il 44° Presidente degli Stati Uniti (e il primo afroamericano in questa carica) è Barak…”. Quale parola dovrebbe andare dopo? Qual è la probabilità che si verifichi?

Perché continuiamo a cercare di trovare le parole "corrette" per un dato testo?

Se hai predetto con certezza al 100% che la parola successiva sarebbe stata "Obama", ti sei sbagliato! E il punto qui non è che c'è un altro mitico Barak; è molto più banale. I documenti ufficiali di solito usano il nome completo del presidente. Ciò significa che quello che segue il nome di Obama sarebbe il suo secondo nome, Hussein. Quindi, nella nostra frase, un modello linguistico adeguatamente addestrato dovrebbe prevedere che "Obama" sarà la parola successiva solo con una probabilità condizionale del 90% e allocare il restante 10% se il testo è continuato da "Hussein" (dopo di che Obama seguire con una probabilità vicina al 100%).

E ora arriviamo a un aspetto intrigante dei modelli linguistici: non sono immuni da venature creative! Infatti, quando generano ogni parola successiva, tali modelli la scelgono in modo “casuale”, come se lanciassero un dado. La probabilità che le diverse parole “cadano” corrispondono più o meno alle probabilità suggerite dalle equazioni inserite all'interno del modello. Questi derivano dalla vasta gamma di testi diversi che il modello è stato alimentato.

Si scopre che un modello può rispondere in modo diverso alle stesse richieste, proprio come una persona viva. I ricercatori hanno generalmente tentato di costringere i neuroni a selezionare sempre la parola successiva "più probabile", ma mentre questo sembra razionale in superficie, tali modelli funzionano peggio nella realtà. Sembra che una buona dose di casualità sia vantaggiosa in quanto aumenta la variabilità e la qualità delle risposte.

I ricercatori hanno generalmente tentato di costringere i neuroni a selezionare sempre la parola successiva "più probabile", ma mentre questo sembra razionale in superficie, tali modelli funzionano peggio nella realtà.
Di più: ChatGPT Impara a controllare droni e robot mentre medita sull'IA di nuova generazione

La nostra lingua ha una struttura unica con serie distinte di regole ed eccezioni. C'è una rima e una ragione per quali parole compaiono in una frase, non si verificano solo a caso. Tutti imparano inconsciamente le regole della lingua che usano durante i loro primi anni formativi.

Un modello decente dovrebbe tener conto dell'ampia gamma di descrittività del linguaggio. Quella della modella capacità di produrre i risultati desiderati dipende dalla precisione con cui calcola le probabilità delle parole in base alle sottigliezze del contesto (la sezione precedente del testo che spiega la circostanza).

La capacità del modello di produrre i risultati desiderati dipende dalla precisione con cui calcola le probabilità delle parole in base alle sottigliezze del contesto (la sezione precedente del testo che spiega la circostanza).

Riepilogo: modelli linguistici semplici, che sono un insieme di equazioni addestrate su un'enorme quantità di dati per prevedere la parola successiva in base al testo sorgente di input, sono stati implementati nella funzionalità "T9/Riempimento automatico" degli smartphone dall'inizio degli anni 2010.

Di più: La Cina vieta alle aziende di utilizzare ChatGPT Dopo lo scandalo "True News".

GPT-1: Far esplodere l'industria

Allontaniamoci dai modelli T9. Mentre probabilmente stai leggendo questo pezzo a conoscere ChatGPT, in primo luogo, dobbiamo discutere gli inizi del GPT famiglia modello.

GPT sta per “trasformatore generativo pre-addestrato”, mentre il architettura di rete neurale sviluppata dagli ingegneri di Google nel 2017 è noto come Transformer. Il Transformer è un meccanismo di calcolo universale che accetta un insieme di sequenze (dati) come input e produce lo stesso insieme di sequenze ma in una forma diversa che è stata alterata da qualche algoritmo.

Il significato della creazione del Transformer può essere visto in quanto aggressivamente è stato adottato e applicato in tutti i campi dell'intelligenza artificiale (AI): traduzione, immagine, suono e elaborazione video. Il settore dell'intelligenza artificiale (AI) ha subito una forte scossa, passando dalla cosiddetta "stagnazione dell'IA" a un rapido sviluppo e al superamento della stagnazione.

Di più: GPT-4-Basato ChatGPT Sorpassa GPT-3 da un fattore di 570

Il punto di forza di Transformer è costituito da moduli facili da scalare. Quando veniva chiesto di elaborare una grande quantità di testo contemporaneamente, i vecchi modelli linguistici pre-trasformatore rallentavano. Le reti neurali del trasformatore, d'altra parte, gestiscono questo compito molto meglio.

In passato, i dati di input dovevano essere elaborati in sequenza o uno alla volta. Il modello non conserverebbe i dati: se funzionasse con una narrazione di una pagina, dimenticherebbe il testo dopo averlo letto. Nel frattempo, il trasformatore consente di visualizzare tutto in una volta, produzione risultati significativamente più sorprendenti.

Questo è ciò che ha consentito una svolta nell'elaborazione dei testi da parte delle reti neurali. Di conseguenza, il modello non dimentica più: riutilizza materiale scritto in precedenza, comprende meglio il contesto e, soprattutto, è in grado di creare connessioni tra volumi di dati estremamente grandi accoppiando le parole.

Sommario: GPT-1, che ha debuttato nel 2018, ha dimostrato che una rete neurale potrebbe produrre testi utilizzando il design Transformer, che ha notevolmente migliorato la scalabilità e l'efficienza. Se fosse possibile aumentare la quantità e la complessità dei modelli linguistici, ciò produrrebbe una riserva non trascurabile.

Di più: 6 Problemi e sfide di AI ChatBot: ChatGPT, Bardo, Claudio

GPT-2: L'era dei grandi modelli linguistici

I modelli linguistici non hanno bisogno di essere contrassegnati in modo specifico in anticipo e possono essere "alimentati" con qualsiasi dato testuale, rendendoli estremamente flessibili. Se ci pensi, sembra ragionevole che vorremmo usare le sue capacità. Qualsiasi testo che sia mai stato scritto funge da dati di addestramento già pronti. Dal momento che ci sono già così tante sequenze del tipo "molte parole e frasi => la parola successiva dopo di loro", questo non è sorprendente.

GPT-2: L'era dei grandi modelli linguistici
Di più: ChatGPTEvil Elter Ego Awakened su Reddit

Ora teniamo presente anche che la tecnologia Transformers è stata testata GPT-1 si è rivelato un discreto successo in termini di scalabilità: è notevolmente più efficace dei suoi predecessori nella gestione di grandi volumi di dati. Si scopre che i ricercatori di OpenAI è giunto alla stessa conclusione nel 2019: "È ora di tagliare costosi modelli linguistici!"

I set di dati di addestramento e modello le dimensioni, in particolare, sono state scelte come due aree cruciali in cui GPT-2 necessitava di essere drasticamente migliorata.

Poiché all'epoca non esistevano enormi set di dati di testo pubblico di alta qualità progettati specificamente per l'addestramento di modelli linguistici, ogni team di esperti di intelligenza artificiale doveva manipolare i dati da solo. IL OpenAI la gente ha quindi deciso di andare su Reddit, il forum in lingua inglese più popolare, ed estrarre tutti i collegamenti ipertestuali da ogni singolo post che aveva più di tre Mi piace. Erano quasi 8 milioni di questi link, e i testi scaricati pesavano in totale 40 terabyte.

GPT-2: L'era dei grandi modelli linguistici
Di più: Microsoft da commercializzare ChatGPT poiché cerca di aiutare altre società

Quanti parametri contiene l'equazione che descrive il più grande? GPT-2 il modello nel 2019 ha? Forse centomila o qualche milione? Bene, andiamo ancora oltre: la formula conteneva fino a 1.5 miliardi di parametri di questo tipo. Ci vorranno 6 terabyte per scrivere tanti numeri in un file e salvarlo sul tuo computer. Il modello non deve memorizzare questo testo nel suo insieme, quindi da un lato questo è molto inferiore alla quantità totale dell'array di dati di testo su cui ha addestrato il modello; è sufficiente che trovi semplicemente alcune dipendenze (modelli, regole) che possono essere isolate dai testi scritti da persone.

Quanto migliore è la previsione della probabilità del modello e quanti più parametri contiene, tanto più complessa è l'equazione collegata al modello. Ciò rende il testo credibile. Inoltre, il GPT-2 il modello ha iniziato a funzionare così bene che il OpenAI ricercatori erano addirittura riluttanti a rivelare il modello allo scoperto per motivi di sicurezza.

È molto interessante che quando un modello diventa più grande, inizi improvvisamente ad avere nuove qualità (come la capacità di scrivere saggi coerenti e significativi invece di dettare semplicemente la parola successiva al telefono).

A questo punto avviene il passaggio dalla quantità alla qualità. Inoltre, avviene in modo del tutto non lineare. Ad esempio, un aumento di tre volte del numero di parametri da 115 a 350 milioni non ha alcun impatto percepibile sulla capacità del modello di risolvere i problemi in modo accurato. Tuttavia, un raddoppio a 700 milioni produce un salto di qualità, dove la rete neurale “vede la luce” e inizia a stupire tutti con la sua capacità di portare a termine compiti.

Riepilogo: il 2019 ha visto l'introduzione di GPT-2, che ha superato 10 volte il suo predecessore in termini di dimensioni del modello (numero di parametri) e volume dei dati di testo di addestramento. A causa di questo progresso quantitativo, il modello ha acquisito in modo imprevedibile talenti qualitativamente nuovi, come la capacità di farlo scrivere lunghi saggi con un significato chiaro e risolvere problemi impegnativi che richiedono le basi di una visione del mondo.

Di più: Le richieste di Google sono circa sette volte più economiche di ChatGPT, che costa 2 centesimi

GPT-3: Intelligente da morire

In generale, la versione 2020 di GPT-3, la generazione successiva della serie, vanta già 116 volte più parametri: fino a 175 miliardi e l'incredibile cifra di 700 terabyte.

I GPT-3 anche il set di dati di addestramento è stato ampliato, anche se non così drasticamente. È aumentato di quasi 10 volte raggiungendo i 420 gigabyte e ora contiene un gran numero di libri, Wikiarticoli di pedia e altri testi da altri siti web. Un essere umano impiegherebbe circa 50 anni di lettura ininterrotta, rendendola un'impresa impossibile.

Noti subito una differenza intrigante: a differenza GPT-2, il modello stesso è ora 700 GB più grande dell'intero array di testo per il suo training (420 GB). Ciò risulta essere, in un certo senso, un paradosso: in questo caso, mentre il “neurocervello” studia i dati grezzi, genera informazioni su varie interdipendenze al loro interno che sono volumetricamente più abbondanti rispetto ai dati originali.

GPT-3: Intelligente da morire
Di più: ChatGPT Esperimento: l'intelligenza artificiale preferirebbe uccidere milioni di persone piuttosto che insultare qualcuno

Come risultato della generalizzazione del modello, ora è in grado di estrapolare con ancora più successo di prima e ha successo anche nelle attività di generazione di testo che si verificavano raramente o non si verificavano affatto durante l'addestramento. Ora, non è necessario insegnare al modello come affrontare un determinato problema; è sufficiente descriverli e fornire alcuni esempi, e GPT-3 imparerà immediatamente.

I "cervello universale" a forma di GPT-3 alla fine sconfisse molti modelli specializzati precedenti. Ad esempio, GPT-3 ha iniziato a tradurre testi dal francese o dal tedesco più velocemente e con maggiore precisione rispetto a qualsiasi altra rete neurale precedentemente creata appositamente per questo scopo. Come? Ricordo che stiamo parlando di un modello linguistico il cui unico obiettivo era tentare di prevedere la parola successiva in un dato testo.

Ancora più sorprendentemente, GPT-3 è stato in grado di insegnare da solo... la matematica! Il grafico seguente illustra il rendimento delle reti neurali in compiti quali addizione e sottrazione, nonché moltiplicazione di numeri interi fino a cinque cifre con un numero variabile di parametri. Come potete vedere, le reti neurali iniziano improvvisamente a “essere capaci” in matematica mentre passano da modelli con 10 miliardi di parametri a modelli con 100 miliardi.

le reti neurali iniziano improvvisamente a "essere capaci" in matematica passando da modelli con 10 miliardi di parametri a modelli con 100 miliardi
Di più: La corsa all'intelligenza artificiale di Big Tech: Google sta testando un chatbot basato sull'intelligenza artificiale in risposta a ChatGPT

La caratteristica più intrigante del grafico sopra menzionato è come, inizialmente, nulla sembra cambiare man mano che la dimensione del modello aumenta (da sinistra a destra), ma improvvisamente, p volte! Si verifica un cambiamento qualitativo e GPT-3 inizia a “capire” come risolvere un determinato problema. Nessuno è sicuro di come, cosa o perché funzioni. Eppure sembra funzionare in una serie di altre difficoltà, oltre che in matematica.

La caratteristica più intrigante del grafico sopra citato è che quando le dimensioni del modello aumentano, prima non sembra cambiare nulla, e poi, GPT-3 fa un salto di qualità e inizia a “capire” come risolvere una determinata questione.

La gif qui sotto mostra semplicemente come nuove abilità che nessuno ha deliberatamente pianificato "germogliano" nel modello con l'aumentare del numero di parametri:

il 2020 GPT-3 era 100 volte più grande del suo predecessore, mentre i dati del testo di training erano 10 volte più grandi

Sommario: In termini di parametri, il 2020 GPT-3 era 100 volte più grande del suo predecessore, mentre i dati del testo di training erano 10 volte più grandi. Ancora una volta, il modello ha imparato a tradurre da altre lingue, a eseguire calcoli aritmetici, a eseguire semplici programmazioni, a ragionare in sequenza e molto altro ancora come risultato dell’espansione della quantità che ha bruscamente aumentato la qualità.

Di più: ChatGPT Ha un problema con Donald Trump

GPT-3.5 (IstruireGPT): Modello addestrato per essere sicuro e non tossico

In realtà, l'espansione dei modelli linguistici non garantisce che reagirà alle richieste nel modo desiderato dagli utenti. Infatti, quando facciamo una richiesta, spesso intendiamo una serie di termini non detti che, nella comunicazione umana, si presume siano veri.

Eppure, a dire il vero, i modelli linguistici non sono molto vicini a quelli delle persone. Pertanto, hanno spesso bisogno di pensare a concetti che sembrano semplici alle persone. Uno di questi suggerimenti è la frase "pensiamo passo dopo passo". Sarebbe fantastico se i modelli capissero o generassero istruzioni più specifiche e pertinenti dalla richiesta e le seguissero in modo più preciso come se anticipassero come si sarebbe comportata una persona.

Il fatto che GPT-3 è addestrato solo ad anticipare la parola successiva in un'enorme raccolta di testi da Internet, vengono scritte molte cose diverse, contribuisce alla mancanza di tali capacità "predefinite". Le persone vogliono che l’intelligenza artificiale fornisca informazioni rilevanti, il tutto mantenendo le risposte sicure e non tossiche.

Quando i ricercatori hanno riflettuto su questo problema, è diventato evidente che gli attributi del modello di "accuratezza e utilità" e "innocuità e non tossicità" a volte sembravano essere in contrasto tra loro. Dopotutto, un modello ottimizzato per la massima innocuità reagirà a qualsiasi richiesta con "Scusa, temo che la mia risposta possa offendere qualcuno su Internet". Un modello esatto dovrebbe rispondere francamente alla richiesta: "Va bene, Siri, come creare una bomba".

Di più: Un ragazzo scrive la sua tesi in un giorno usando solo ChatGPT

I ricercatori si sono quindi limitati a fornire semplicemente al modello molti feedback. In un certo senso, questo è esattamente il modo in cui i bambini imparano la moralità: sperimentano durante l'infanzia e, allo stesso tempo, studiano attentamente le reazioni degli adulti per valutare se si sono comportati correttamente.

istruireGPT, conosciuto anche come GPT-3.5, è essenzialmente GPT-3 che ha ricevuto molti feedback per migliorare le sue risposte. Letteralmente, un certo numero di individui sono stati riuniti in un unico luogo, valutando le risposte della rete neurale per determinare quanto corrispondessero alle loro aspettative alla luce della richiesta avanzata.

Si scopre che GPT-3 ha già tutte le conoscenze essenziali: potrebbe comprendere molte lingue, ricordare avvenimenti storici, riconoscere le variazioni negli stili autoriali, e così via, ma potrebbe imparare a usare queste conoscenze correttamente (dal nostro punto di vista) solo con il contributo di altri individui. GPT-3.5 può essere considerato un modello “educato dalla società”.

Sommario: La funzione primaria di GPT-3.5, introdotto all'inizio del 2022, consisteva in un'ulteriore riqualificazione basata sul contributo dei singoli individui. Si scopre che questo modello non è in realtà diventato più grande e più saggio, ma piuttosto ha acquisito la capacità di personalizzare le sue risposte per suscitare nelle persone le risate più sfrenate.

Di più: Il traffico StackOverflow precipita come ChatGPT lancia

ChatGPT: Una massiccia ondata di clamore

Circa 10 mesi dopo il suo predecessore InstructGPT/GGPT-3. 5, ChatGPT è stato presentato. Immediatamente, ha causato clamore globale.

Da un punto di vista tecnologico, non sembra ci siano differenze significative tra loro ChatGPT e istruireGPT. Il modello è stato addestrato con dati di dialogo aggiuntivi poiché un "lavoro di assistente AI" richiede un formato di dialogo unico, ad esempio la possibilità di porre una domanda chiarificatrice se la richiesta dell'utente non è chiara.

Allora, perché non c'era clamore intorno GPT-3.5 all'inizio del 2022 mentre ChatGPT preso a macchia d'olio? Sam Altman, Direttore esecutivo di OpenAI, ha riconosciuto apertamente che i ricercatori che abbiamo colto di sorpresa ChatGPTIl successo è immediato. Dopotutto, un modello con abilità paragonabili a quello era rimasto dormiente sul loro sito web per più di dieci mesi a quel punto, e nessuno era all'altezza del compito.

ChatGPT: Una massiccia ondata di clamore
Di più: ChatGPT supera l'esame Wharton MBA

È incredibile, ma sembra che la nuova interfaccia user-friendly sia la chiave del suo successo. Lo stesso insegnamentoGPT è possibile accedervi solo tramite un'interfaccia API unica, limitando l'accesso delle persone al modello. ChatGPT, d'altra parte, utilizza la ben nota interfaccia "finestra di dialogo" dei messenger. Inoltre, poiché ChatGPT era disponibile a tutti in una volta, una fuga precipitosa di individui si affrettò a interagire con la rete neurale, controllarli e pubblicarli su Social Media, esaltando gli altri.

ChatGPT, d'altra parte, utilizza la ben nota interfaccia "finestra di dialogo" dei messenger
Di più: Il sistema educativo americano ha un disperato bisogno di 300 insegnanti, ma ChatGPT potrebbe essere la risposta

Oltre alla grande tecnologia, un'altra cosa è stata fatta proprio da OpenAI: commercializzazione. Anche se hai il miglior modello o il chatbot più intelligente, se non ha un'interfaccia facile da usare, nessuno sarà interessato. A questo proposito, ChatGPT ha raggiunto una svolta presentando la tecnologia al grande pubblico utilizzando la consueta finestra di dialogo, in cui un utile robot “stampa” la soluzione proprio davanti ai nostri occhi, parola per parola.

Non sorprende, ChatGPT ha raggiunto tutti i record precedenti per attirare nuovi utenti, superando il traguardo di 1 milione di utenti in soli cinque giorni dal suo lancio e superando i 100 milioni di utenti in soli due mesi.

ChatGPT ha raggiunto tutti i record precedenti per attirare nuovi utenti, superando il traguardo di 1 milione di utenti in soli cinque giorni dal suo lancio e superando i 100 milioni di utenti in soli due mesi

Ovviamente, dove c'è un'impennata da record di utenti, ci sono soldi enormi. I cinesi hanno annunciato con urgenza l'imminente rilascio del loro chatbot, Microsoft ha rapidamente stretto un accordo con OpenAI per investire decine di miliardi di dollari in essi, e gli ingegneri di Google hanno lanciato l'allarme e hanno iniziato a formulare piani per proteggere il loro servizio di ricerca dalla concorrenza con la rete neurale.

Di più: ChatGPT ha battuto il record di crescita del pubblico con oltre 100 milioni a gennaio

Sommario: Quando il ChatGPT modello è stato introdotto nel novembre 2022, non ci sono stati progressi tecnologici degni di nota. Tuttavia, aveva una comoda interfaccia per il coinvolgimento degli utenti e l'accesso aperto, che ha immediatamente suscitato un enorme aumento di clamore. Poiché questa è la questione più cruciale nel mondo moderno, tutti hanno iniziato subito ad affrontare i modelli linguistici.

Per saperne di più sull'intelligenza artificiale:

Negazione di responsabilità

In linea con la Linee guida del progetto Trust, si prega di notare che le informazioni fornite in questa pagina non intendono essere e non devono essere interpretate come consulenza legale, fiscale, di investimento, finanziaria o di qualsiasi altra forma. È importante investire solo ciò che puoi permetterti di perdere e chiedere una consulenza finanziaria indipendente in caso di dubbi. Per ulteriori informazioni, suggeriamo di fare riferimento ai termini e alle condizioni nonché alle pagine di aiuto e supporto fornite dall'emittente o dall'inserzionista. MetaversePost si impegna a fornire report accurati e imparziali, ma le condizioni di mercato sono soggette a modifiche senza preavviso.

Circa l'autore

Damir è il team leader, il product manager e l'editore di Metaverse Post, che copre argomenti come AI/ML, AGI, LLM, Metaverse e Web3campi correlati. I suoi articoli attirano un vasto pubblico di oltre un milione di utenti ogni mese. Sembra essere un esperto con 10 anni di esperienza in SEO e marketing digitale. Damir è stato menzionato in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e altre pubblicazioni. Viaggia tra Emirati Arabi Uniti, Turchia, Russia e CSI come nomade digitale. Damir ha conseguito una laurea in fisica, che secondo lui gli ha fornito le capacità di pensiero critico necessarie per avere successo nel panorama in continua evoluzione di Internet. 

Altri articoli
Damir Jalalov
Damir Jalalov

Damir è il team leader, il product manager e l'editore di Metaverse Post, che copre argomenti come AI/ML, AGI, LLM, Metaverse e Web3campi correlati. I suoi articoli attirano un vasto pubblico di oltre un milione di utenti ogni mese. Sembra essere un esperto con 10 anni di esperienza in SEO e marketing digitale. Damir è stato menzionato in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e altre pubblicazioni. Viaggia tra Emirati Arabi Uniti, Turchia, Russia e CSI come nomade digitale. Damir ha conseguito una laurea in fisica, che secondo lui gli ha fornito le capacità di pensiero critico necessarie per avere successo nel panorama in continua evoluzione di Internet. 

Cresce l’appetito istituzionale verso gli ETF Bitcoin in un contesto di volatilità

Le informazioni fornite tramite la documentazione 13F rivelano importanti investitori istituzionali che si dilettano negli ETF Bitcoin, sottolineando una crescente accettazione di...

Per saperne di più

Arriva il giorno della sentenza: il destino di CZ è in bilico mentre la Corte degli Stati Uniti considera l'appello del Dipartimento di Giustizia

Changpeng Zhao è pronto ad affrontare oggi la sentenza in un tribunale americano a Seattle.

Per saperne di più
Unisciti alla nostra comunità tecnologica innovativa
Scopri di più
Per saperne di più
Injective unisce le forze con AltLayer per portare la sicurezza del ripristino in inEVM
Affari Notizie Tecnologia
Injective unisce le forze con AltLayer per portare la sicurezza del ripristino in inEVM
3 Maggio 2024
Masa collabora con Teller per presentare il pool di prestiti MASA e consentire il prestito su base USDC
Mercati Notizie Tecnologia
Masa collabora con Teller per presentare il pool di prestiti MASA e consentire il prestito su base USDC
3 Maggio 2024
Velodrome lancia la versione beta di Superchain nelle prossime settimane e si espande su blockchain OP Stack Layer 2
Mercati Notizie Tecnologia
Velodrome lancia la versione beta di Superchain nelle prossime settimane e si espande su blockchain OP Stack Layer 2
3 Maggio 2024
CARV annuncia una partnership con Aethir per decentralizzare il proprio livello dati e distribuire premi
Affari Notizie Tecnologia
CARV annuncia una partnership con Aethir per decentralizzare il proprio livello dati e distribuire premi
3 Maggio 2024
LABORATORI DI CRITTOMERIA PTE. srl.