La quantità di intelligenza nell'universo raddoppierà ogni 18 mesi, afferma Sam Altman
In Breve
L'apocalisse dell'IA è iniziata, con la quantità di intelligenza nell'universo che raddoppia ogni 18 mesi.
OpenAIè Sam Altman una volta ha scherzato sul fatto che l'intelligenza artificiale avrebbe portato alla fine del mondo, ma prima sarebbe stato un enorme affare.
Eric Hoel, neuroscienziato e filosofo americano della Tufts University, sostiene che i sistemi di intelligenza artificiale non possono essere considerati intelligenti a questo punto, poiché non comprendono il mondo e non hanno una personalità che si manifesta nelle loro intenzioni e azioni.
L'ipotesi del cervello bayesiano afferma che la funzione primaria del cervello è ridurre al minimo la sorpresa. Se questo è vero, l'apocalisse dell'IA potrebbe essere già iniziata.
Questo suggerisce questo ChatGPT e altri sono già più versatili nella loro intelligenza di qualsiasi essere umano.
L'apocalisse dell'IA è iniziata, cambiando il significato della Legge di Moore. Ora, la quantità di intelligenza nell'universo raddoppierà ogni 18 mesi, secondo Sam Altman, CEO di OpenAI, la compagnia dietro ChatGPT. Solo sette anni fa, Sam scherzava: “Molto probabilmente l’intelligenza artificiale porterà alla fine del mondo, ma prima ci sarà un enorme business”. Ora, la gente scherza non si separa da uno “zaino nucleare” in modo da poter far esplodere a distanza i data center se GPT va fuori controllo.
Post consigliato: ChatGPT Potrebbe causare una degenerazione umana irreversibile |
Per capire meglio a cosa si riferisce Altman nel suo tweet, e per scoprire come non impazzire durante il boom dell'IA, vi consigliamo di leggere “Come navigare nell'apocalisse dell'IA come una persona sana di mente.” Hoel è un neuroscienziato e filosofo americano della Tufts University. È una buona lettura, dato che Hoel è un grande scrittore, quindi noi deficonsiglio vivamente di controllare questo post.
Diamo solo un'occhiata a uno dei punti chiave in quanto riassume una profonda comprensione di ciò che sta accadendo e del prossimo futuro dell'apocalisse che è già arrivata. L’argomento principale dei “tecno-ottimisti razionali”, che credono che con l’avvento di ChatGPT, è come segue:
- Nonostante gli eccezionali risultati dell’intelligenza artificiale conversazionale generativa (come ChatGPT, Bing, ecc.), questi sistemi di intelligenza artificiale non possono essere considerati intelligenti. Non capiscono il mondo e non hanno la motivazione di un agente. Non hanno una personalità che si manifesta nelle loro intenzioni e azioni, e il loro intelletto percepito non è altro che un simulacro dell'intelletto. Fondamentalmente, questo simulacro è solo un auto-riempitivo per le parole successive, che riflette nel suo specchio probabilistico il colossale corpus non filtrato di testi scritti da esseri umani provenienti da Internet.
- Se è così, allora non c'è né una prospettiva ravvicinata della comparsa di una superintelligenza né i rischi ad essa associati (sebbene, ovviamente, sia necessario prepararsi a questo, molto probabilmente all'orizzonte di decenni).
Post consigliato: I robot di ricerca AI renderanno la Big Tech ancora più potente, afferma Christopher Millszione |
La risposta di Hoel a questa argomentazione è la seguente:
- Il fatto che ChatGPT, ad esempio, è semplicemente un completamento automatico delle parole successive, non implica che non possa diventare (o sia già diventato) un agente intelligente. A differenza della coscienza, l’intelligenza è un concetto pienamente funzionale: se qualcosa agisce in modo intelligente, è intelligente. Se agisce come un agente, è un agente.
- Ecco un esempio esplicativo. C'è un'influente coorte di scienziati - Carl Friston (il neuroscienziato più citato) e una miriade di altri nomi famosi - che affermano che lo scopo del nostro cervello è minimizzare la sorpresa. Questa "ipotesi del cervello bayesiano" è una di quelle tradizionali oggi. La teoria afferma che, a livello globale, minimizzare la sorpresa è la funzione primaria del cervello. E mentre questa è solo una delle numerose ipotesi principali su come funziona il cervello, supponiamo che sia vero. Immagina ora che gli alieni trovino un cervello umano, lo guardino e dicano: “Oh, questa cosa minimizza solo la sorpresa! Non può essere la base dell'intelletto e quindi non può essere pericoloso per i veri portatori della mente. Pensa: "ridurre al minimo le sorprese" è davvero un obiettivo molto più difficile del completamento automatico del testo? O è davvero molto simile?
- E se è così, allora la superintelligenza non umana potrebbe già essere nelle vicinanze. E i rischi associati sono già abbastanza reali. Cos'altro c'è da aggiungere? Forse ChatGPT e altri sono già più versatili nella loro intelligenza di qualsiasi essere umano. ChatGPT e altri saranno probabilmente attivi contemporaneamente per i seguenti motivi: ragionevoli, inaffidabili e non simili alla mente umana, incontrollabili in ogni senso fondamentale, ad eccezione di alcuni recinti progettati frettolosamente.
E se tutto questo è vero, allora l'apocalisse dell'IA è già iniziata.
Leggi altri argomenti correlati:
Negazione di responsabilità
In linea con la Linee guida del progetto Trust, si prega di notare che le informazioni fornite in questa pagina non intendono essere e non devono essere interpretate come consulenza legale, fiscale, di investimento, finanziaria o di qualsiasi altra forma. È importante investire solo ciò che puoi permetterti di perdere e chiedere una consulenza finanziaria indipendente in caso di dubbi. Per ulteriori informazioni, suggeriamo di fare riferimento ai termini e alle condizioni nonché alle pagine di aiuto e supporto fornite dall'emittente o dall'inserzionista. MetaversePost si impegna a fornire report accurati e imparziali, ma le condizioni di mercato sono soggette a modifiche senza preavviso.
Circa l'autore
Damir è il team leader, il product manager e l'editore di Metaverse Post, che copre argomenti come AI/ML, AGI, LLM, Metaverse e Web3campi correlati. I suoi articoli attirano un vasto pubblico di oltre un milione di utenti ogni mese. Sembra essere un esperto con 10 anni di esperienza in SEO e marketing digitale. Damir è stato menzionato in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e altre pubblicazioni. Viaggia tra Emirati Arabi Uniti, Turchia, Russia e CSI come nomade digitale. Damir ha conseguito una laurea in fisica, che secondo lui gli ha fornito le capacità di pensiero critico necessarie per avere successo nel panorama in continua evoluzione di Internet.
Altri articoliDamir è il team leader, il product manager e l'editore di Metaverse Post, che copre argomenti come AI/ML, AGI, LLM, Metaverse e Web3campi correlati. I suoi articoli attirano un vasto pubblico di oltre un milione di utenti ogni mese. Sembra essere un esperto con 10 anni di esperienza in SEO e marketing digitale. Damir è stato menzionato in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e altre pubblicazioni. Viaggia tra Emirati Arabi Uniti, Turchia, Russia e CSI come nomade digitale. Damir ha conseguito una laurea in fisica, che secondo lui gli ha fornito le capacità di pensiero critico necessarie per avere successo nel panorama in continua evoluzione di Internet.