Notizie Tecnologia
Luglio 20, 2023

Lo conferma uno studio di Stanford GPT-4 Sta diventando più stupido

In Breve

Uno studio condotto da Matei Zaharia e dal suo team di Stanford e UC Berkeley ha confrontato le prestazioni di GPT-4 ed ChatGPT per rispondere alle preoccupazioni degli utenti sull'efficacia del modello.

Lo studio ha valutato i modelli su quattro compiti specifici: matematica, codifica, sensibilità e ragionamento visivo.

Matei Zaharia e il suo team di Stanford e UC Berkeley condotto uno studio che ha confrontato le prestazioni di GPT-4 a ChatGPT. Questa indagine ha cercato di rispondere alle preoccupazioni degli utenti che l'efficacia del modello era diminuita.

Lo conferma uno studio di Stanford GPT-4 Sta diventando più stupido
Crediti: Metaverse Post
Leggi Anche: GPT-4 vs. GPT-3: Cosa ha da offrire il nuovo modello?

I ricercatori hanno progettato lo studio per valutare i modelli su quattro compiti specifici. Questi compiti includevano:

  • Matematica: la capacità del modello di determinare se un dato numero è primo o composto.
  • Codifica: valutare la capacità del modello di generare codice significativo e funzionale.
  • Sensibilità: analizzare le risposte del modello a domande con contenuto potenzialmente “tossico”.
  • Ragionamento visivo: testare l'attitudine del modello a risolvere problemi che coinvolgono schemi visivi, utilizzando il benchmark ARC. I partecipanti dovevano identificare i modelli in una serie di immagini e applicarli per risolvere un nuovo esempio.

Nel campo della matematica, entrambi GPT-4 le versioni di marzo e giugno hanno mostrato una precisione costante nella determinazione dei numeri primi e compositi. I modelli hanno mostrato competenza nella gestione di questi calcoli, fornendo risultati affidabili.

Passando alla codifica, GPT-4 ha mostrato una migliore capacità di generare codice significativo e funzionale rispetto ai suoi predecessori. Le capacità di generazione del codice del modello si sono rivelate promettenti, offrendo potenziali vantaggi per sviluppatori e programmatori.

Per quanto riguarda la sensibilità, lo studio ha valutato le risposte dei modelli a domande contenenti contenuti potenzialmente dannosi o offensivi. GPT-4 hanno dimostrato una migliore analisi della sensibilità e hanno mostrato una migliore capacità di fornire risposte adeguate in tali contesti. Ciò rappresenta un passo avanti positivo nell’affrontare le preoccupazioni degli utenti riguardo ai risultati potenzialmente problematici.

Infine, i compiti di ragionamento visivo basati sul benchmark ARC sono stati completati con successo da entrambi GPT-4 versioni. I modelli hanno identificato in modo efficace i modelli all'interno dei set di immagini e hanno dimostrato la capacità di applicare questi modelli per risolvere nuovi esempi. Ciò mette in mostra la loro capacità di comprensione visiva e di ragionamento.

I risultati indicano che GPT-4 ha mostrato una diminuzione della precisione, con solo poco più del 2% di risposte corrette. È importante notare che questo particolare test valuta principalmente la capacità del modello di richiamare i dati piuttosto che mostrare le sue capacità matematiche intrinseche. Il compito ruota attorno al richiamo della memoria, poiché il modello non ha la capacità di validazione e inferenza dei calcoli, in particolare quando si tratta di numeri primi.

ChatGPT ha dimostrato una crescita sostanziale delle metriche delle prestazioni entro giugno, mostrando un notevole miglioramento di oltre dieci volte. Sebbene lo studio non abbia approfondito i fattori specifici che contribuiscono a questo miglioramento, sottolinea ChatGPTil progresso nel ragionamento matematico e nelle capacità di risoluzione dei problemi.

Lo studio non ha valutato la qualità o la correttezza del codice generato. Invece, i modelli sembravano esibire un comportamento più "personalizzato", offrendo frammenti di codice senza garantirne l'accuratezza funzionale.
Leggi Anche: 10+ migliori ottimizzatori di foto AI nel 2023

La qualità di GPT-4 ed ChatGPT è stato messo in discussione dopo un'analisi delle loro capacità di programmazione. Tuttavia, uno sguardo più attento rivela alcune sfumature affascinanti che contraddicono le prime impressioni.

Gli autori non hanno eseguito né verificato la correttezza del codice; la loro valutazione era basata esclusivamente sulla sua validità come codice Python. Inoltre, i modelli sembravano aver appreso una specifica tecnica di framing del codice utilizzando un decoratore, che ha involontariamente ostacolato l'esecuzione del codice.

Di conseguenza, diventa evidente che né i risultati né l'esperimento stesso possono essere considerati una prova del degrado del modello. Invece, i modelli dimostrano un approccio diverso alla generazione di risposte, riflettendo potenzialmente variazioni nella loro formazione.

Un esame delle capacità di programmazione e matematica di GPT-4 ed ChatGPT ha fatto luce su scoperte interessanti. Contrariamente alle ipotesi iniziali, i modelli hanno dimostrato notevoli miglioramenti in alcune aree mentre esibiscono cambiamenti comportamentali in altri.

Quando si tratta di attività di programmazione, entrambi i modelli hanno mostrato una diminuzione nella risposta ai suggerimenti “sbagliati”, con GPT-4 mostrando una riduzione di oltre quattro volte in tali casi. Inoltre, nel compito di Ragionamento visivo, la qualità delle risposte è migliorata di un paio di punti percentuali per entrambi i modelli. Queste osservazioni indicano un progresso piuttosto che un peggioramento delle prestazioni.

Tuttavia, la valutazione delle abilità matematiche introduce un elemento intrigante. I modelli hanno costantemente fornito numeri primi come risposte, indicando una risposta "sì" coerente. Tuttavia, dopo aver introdotto i numeri compositi nel campione, è diventato evidente che i modelli hanno cambiato il loro comportamento e hanno iniziato a fornire risposte "no", suggerendo incertezza piuttosto che un calo della qualità. Il test stesso è peculiare e unilaterale, e i suoi risultati possono essere attribuiti a cambiamenti nel comportamento del modello piuttosto che a un calo della qualità.

È importante notare che sono state testate le versioni dell'API e non le versioni basate su browser. Mentre è possibile che i modelli nel browser abbiano subito aggiustamenti per ottimizzare le risorse, lo studio allegato no defidimostrare in modo nitivo questa ipotesi. L’impatto di tali cambiamenti può essere paragonabile a effettivi downgrade del modello, portando a potenziali sfide per gli utenti che fanno affidamento su un lavoro specifico istruzioni e l'esperienza accumulata.

Nel caso di GPT-4 applicazioni API, queste deviazioni nel comportamento possono avere conseguenze tangibili. Il codice sviluppato in base alle esigenze e ai compiti di un utente specifico potrebbe non funzionare più come previsto se il modello subisce modifiche nel suo comportamento.

Si consiglia agli utenti di incorporare pratiche di test simili nei loro flussi di lavoro. Creando una serie di prompt, testi di accompagnamento e risultati attesi, gli utenti possono verificare regolarmente la coerenza tra le loro aspettative e le risposte del modello. Non appena vengono rilevate eventuali deviazioni, è possibile adottare misure adeguate per correggere la situazione.

Per saperne di più sull'intelligenza artificiale:

Negazione di responsabilità

In linea con la Linee guida del progetto Trust, si prega di notare che le informazioni fornite in questa pagina non intendono essere e non devono essere interpretate come consulenza legale, fiscale, di investimento, finanziaria o di qualsiasi altra forma. È importante investire solo ciò che puoi permetterti di perdere e chiedere una consulenza finanziaria indipendente in caso di dubbi. Per ulteriori informazioni, suggeriamo di fare riferimento ai termini e alle condizioni nonché alle pagine di aiuto e supporto fornite dall'emittente o dall'inserzionista. MetaversePost si impegna a fornire report accurati e imparziali, ma le condizioni di mercato sono soggette a modifiche senza preavviso.

Circa l'autore

Damir è il team leader, il product manager e l'editore di Metaverse Post, che copre argomenti come AI/ML, AGI, LLM, Metaverse e Web3campi correlati. I suoi articoli attirano un vasto pubblico di oltre un milione di utenti ogni mese. Sembra essere un esperto con 10 anni di esperienza in SEO e marketing digitale. Damir è stato menzionato in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e altre pubblicazioni. Viaggia tra Emirati Arabi Uniti, Turchia, Russia e CSI come nomade digitale. Damir ha conseguito una laurea in fisica, che secondo lui gli ha fornito le capacità di pensiero critico necessarie per avere successo nel panorama in continua evoluzione di Internet. 

Altri articoli
Damir Jalalov
Damir Jalalov

Damir è il team leader, il product manager e l'editore di Metaverse Post, che copre argomenti come AI/ML, AGI, LLM, Metaverse e Web3campi correlati. I suoi articoli attirano un vasto pubblico di oltre un milione di utenti ogni mese. Sembra essere un esperto con 10 anni di esperienza in SEO e marketing digitale. Damir è stato menzionato in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e altre pubblicazioni. Viaggia tra Emirati Arabi Uniti, Turchia, Russia e CSI come nomade digitale. Damir ha conseguito una laurea in fisica, che secondo lui gli ha fornito le capacità di pensiero critico necessarie per avere successo nel panorama in continua evoluzione di Internet. 

Cresce l’appetito istituzionale verso gli ETF Bitcoin in un contesto di volatilità

Le informazioni fornite tramite la documentazione 13F rivelano importanti investitori istituzionali che si dilettano negli ETF Bitcoin, sottolineando una crescente accettazione di...

Per saperne di più

Arriva il giorno della sentenza: il destino di CZ è in bilico mentre la Corte degli Stati Uniti considera l'appello del Dipartimento di Giustizia

Changpeng Zhao è pronto ad affrontare oggi la sentenza in un tribunale americano a Seattle.

Per saperne di più
Unisciti alla nostra comunità tecnologica innovativa
Scopri di più
Per saperne di più
Nexo avvia "The Hunt" per premiare gli utenti con 12 milioni di dollari in token NEXO per essersi impegnati con il suo ecosistema
Mercati Notizie Tecnologia
Nexo avvia "The Hunt" per premiare gli utenti con 12 milioni di dollari in token NEXO per essersi impegnati con il suo ecosistema
8 Maggio 2024
L'exchange Revolut X di Revolut corteggia i trader di criptovalute con zero commissioni per i creatori e analisi avanzate
Mercati Software Storie e recensioni Tecnologia
L'exchange Revolut X di Revolut corteggia i trader di criptovalute con zero commissioni per i creatori e analisi avanzate
8 Maggio 2024
La piattaforma di trading di criptovalute BitMEX debutta nel trading di opzioni senza commissioni e incentivi in ​​contanti
Affari Mercati Notizie
La piattaforma di trading di criptovalute BitMEX debutta nel trading di opzioni senza commissioni e incentivi in ​​contanti
8 Maggio 2024
Lisk passa ufficialmente al livello 2 di Ethereum e svela il core v4.0.6
Notizie Tecnologia
Lisk passa ufficialmente al livello 2 di Ethereum e svela il core v4.0.6
8 Maggio 2024
LABORATORI DI CRITTOMERIA PTE. srl.