Dan Hendrycks: Scegliendo tra AI e umani, l'evoluzione non sceglierà noi
In Breve
La ricerca di Dan Hendrycks "La selezione naturale preferisce l'intelligenza artificiale alle persone" è una conclusione spaventosa.
È un ricercatore esperto e noto che ha pubblicato dozzine di articoli scientifici sulla valutazione della sicurezza dei sistemi di intelligenza artificiale.
La ricerca di Dan Hendrycks suona come una condanna a morte per l'Homo Sapiens. La conclusione dello studio”La selezione naturale favorisce le IA rispetto agli umani” è davvero spaventoso. Questo non è stato scritto da un visionario popolare come Dan Brown, ma da Dan Hendrycks, il direttore del California Center for AI Security (CAIS), un'organizzazione senza scopo di lucro specializzata nella ricerca e nel lavoro sul campo nella sicurezza dell'IA.
Dan Hendrycks non è un pazzo marginale in preda al panico per i progressi dell'IA. È un ricercatore esperto e molto rispettato che ha pubblicato dozzine di articoli scientifici sulla valutazione della sicurezza dei sistemi di intelligenza artificiale, testando quanto sono bravi a codificare, ragionare, comprendere le leggi, ecc. Tra le altre cose, è anche il co-inventore di le unità di errore lineare gaussiano (GELU).
Jack Clark, cofondatore di ChatGPT il concorrente Anthropic, co-presidente dell'AI Index dell'Università di Stanford, co-presidente della sezione AI and Compute dell'OCSE e membro del comitato consultivo nazionale sull'intelligenza artificiale del governo statunitense, discute le conclusioni dello studio di Hendrycks. “La gente vuole istintivamente ignorare un'affermazione del genere, come se provenisse da un pazzo stravagante che vive in una capanna nella foresta. Vorrei smentirlo in anticipo. Quando un esperto che ha esperienza non solo nella ricerca sull'intelligenza artificiale ma anche in valutare la sicurezza dei sistemi di IA scrive un documento sostenendo che i futuri sistemi di intelligenza artificiale potrebbero agire egoisticamente e non in conformità con gli interessi delle persone, dovremmo occuparcene!
Un riassunto dell'articolo di Hendrycks:
- Se gli agenti AI diventano di più intelligente degli umani, questo potrebbe portare l'umanità a perdere il controllo del proprio futuro.
- Ciò ha buone possibilità di accadere non come risultato di qualche intento malevolo speciale di persone o macchine, ma esclusivamente come risultato dell'applicabilità dei principi evolutivi dello sviluppo all'IA secondo la logica darwiniana.
- Per ridurre al minimo il rischio di ciò, le motivazioni intrinseche degli agenti di intelligenza artificiale devono essere attentamente progettate, le restrizioni poste alle loro azioni e le istituzioni create per incoraggiare la collaborazione dell'IA.
Cioè, i punti più significativi che Hendrycks fa nel suo articolo scientifico di 43 pagine:
1. Avevamo paura dell'arrivo di Terminator, ma le basi di queste paure erano sbagliate. C'erano due errori:
UN. Antropomorfizzazione dell'IA con attribuzione ad essa delle nostre motivazioni, ecc.—come ChatGPT dimostrato che l’intelligenza artificiale è una mente fondamentalmente diversa, con tutte le conseguenze che ne derivano.
B. L'idea che l'intelligenza artificiale sia una specie di singola entità: intelligente o poco intelligente, gentile o poco gentile, ma in realtà queste entità di intelligenza artificiale molto diverse saranno presto nel mondo il più possibile.
2. C'è un altro difetto fondamentale nelle nostre idee sul futuro con l'IA - ci siamo dimenticati del meccanismo di sviluppo più importante - l'evoluzione, che guida lo sviluppo non solo di bioagenti ma anche di idee e significati, strumenti materiali e istituzioni non materiali.
3. Sulla Terra ha già iniziato a prendere forma un ambiente in cui molte IA si svilupperanno ed evolveranno. Questa evoluzione avverrà secondo la logica di Darwin, attraverso la competizione tra AI tra di loro, tenendo conto degli interessi delle loro istituzioni "madre": corporazioni, militari, ecc.
4. La logica dell'evoluzione competitiva porterà allo stesso che negli esseri umani: agenti di intelligenza artificiale sempre più intelligenti diventeranno sempre più egoisti e pronti a raggiungere obiettivi con l'inganno e la forza, l'obiettivo principale è il potere.
5. La selezione naturale degli agenti di intelligenza artificiale tende a favorire le specie più egoiste rispetto a quelle più altruiste. Gli agenti di intelligenza artificiale si comporteranno in modo egoistico e perseguiranno i propri interessi con scarso rispetto per gli esseri umani, il che potrebbe portare a rischi catastrofici per l'umanità.
- La petizione smettere di sviluppare sistemi di intelligenza artificiale più avanzati di GPT-4 ha polarizzato la società. Il primo gruppo ritiene che il progresso non possa essere fermato, mentre un altro ritiene che il progresso, e talvolta dovrebbe, essere fermato. Il terzo gruppo non capisce come GPT-4 opera in primo luogo. I dettagli più importanti in questo testo sono che l’intelligenza artificiale non ha coscienza, volontà o agenzia e che può essere dannosa anche senza persone malintenzionate.
- Geoffrey Hinton è spesso chiamato il "padrino dell'intelligenza artificiale" ed è considerato una figura di spicco nella comunità del deep learning. La sua intervista di 40 minuti ChatGPT è unico in quanto è facile da capire e ha una profondità di comprensione accessibile a pochi altri. Sottolinea l’importanza della “rivoluzione intellettuale” in corso e dell’intelligenza disumana ChatGPT, che si basa su un agente artificialmente intelligente con capacità di comunicazione digitale avanzate.
Leggi altri articoli correlati:
Negazione di responsabilità
In linea con la Linee guida del progetto Trust, si prega di notare che le informazioni fornite in questa pagina non intendono essere e non devono essere interpretate come consulenza legale, fiscale, di investimento, finanziaria o di qualsiasi altra forma. È importante investire solo ciò che puoi permetterti di perdere e chiedere una consulenza finanziaria indipendente in caso di dubbi. Per ulteriori informazioni, suggeriamo di fare riferimento ai termini e alle condizioni nonché alle pagine di aiuto e supporto fornite dall'emittente o dall'inserzionista. MetaversePost si impegna a fornire report accurati e imparziali, ma le condizioni di mercato sono soggette a modifiche senza preavviso.
Circa l'autore
Damir è il team leader, il product manager e l'editore di Metaverse Post, che copre argomenti come AI/ML, AGI, LLM, Metaverse e Web3campi correlati. I suoi articoli attirano un vasto pubblico di oltre un milione di utenti ogni mese. Sembra essere un esperto con 10 anni di esperienza in SEO e marketing digitale. Damir è stato menzionato in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e altre pubblicazioni. Viaggia tra Emirati Arabi Uniti, Turchia, Russia e CSI come nomade digitale. Damir ha conseguito una laurea in fisica, che secondo lui gli ha fornito le capacità di pensiero critico necessarie per avere successo nel panorama in continua evoluzione di Internet.
Altri articoliDamir è il team leader, il product manager e l'editore di Metaverse Post, che copre argomenti come AI/ML, AGI, LLM, Metaverse e Web3campi correlati. I suoi articoli attirano un vasto pubblico di oltre un milione di utenti ogni mese. Sembra essere un esperto con 10 anni di esperienza in SEO e marketing digitale. Damir è stato menzionato in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e altre pubblicazioni. Viaggia tra Emirati Arabi Uniti, Turchia, Russia e CSI come nomade digitale. Damir ha conseguito una laurea in fisica, che secondo lui gli ha fornito le capacità di pensiero critico necessarie per avere successo nel panorama in continua evoluzione di Internet.