I leader dell’intelligenza artificiale avvertono dei rischi crescenti e delle preoccupazioni etiche legati ai rapidi progressi
In una recente dichiarazione politica, figure di spicco nel campo dell'intelligenza artificiale, tra cui Bengio, Hinton, Russell, Harari e Kahneman, hanno lanciato l'allarme sui rapidi progressi e sui crescenti rischi sociali associati all'intelligenza artificiale.
L’intelligenza artificiale si sta sviluppando rapidamente. GPT-2 quattro anni fa non si poteva contare da 0 a 100, ma i modelli moderni possono scrivere codici, creare immagini straordinarie e offrire una guida intellettuale. E poiché siamo in corsa, il progresso può accelerare ancora di più. Inoltre, l’intelligenza artificiale avanza più rapidamente, ad esempio aiutando nella programmazione di nuovi sistemi e nella raccolta di dati per la loro formazione.
Una volta che il progresso raggiunge i livelli umani, non c’è motivo di pensare che rallenterà o si fermerà. In alcune regioni, i sistemi artificiali hanno già sovraperformato gli esseri umani in questo senso, esibendosi funzionalità come un'elaborazione più rapida velocità, maggiori capacità di elaborazione dei dati e scalabilità su larga scala. Le imprese possiedono i mezzi finanziari per implementare programmi di formazione che superano di gran lunga il limite attuale.
Gli autori ritengono che ci siano buone probabilità che entro i prossimi dieci anni circa emerga un migliore generalista dell’intelligenza artificiale. superando le capacità umane in molti ambiti importanti.
Cosa succederà dopo? Tutte le vite possono essere migliorate se gestite e distribuite adeguatamente. L’opzione scelta male comporta rischi significativi per i quali siamo impreparati. Invece di essere destinate alla sicurezza e alla prevenzione dei danni, risorse significative vengono utilizzate per costruire sistemi di intelligenza artificiale sempre più potenti. Questo deve cambiare; perseguire le competenze da soli non è sufficiente. E questo processo sta richiedendo più tempo del previsto. Dobbiamo pianificare i rischi più elevati prima che si verifichino, anticipando l’escalation delle minacce attuali e la comparsa di nuove. Non abbiamo a disposizione la stessa quantità di tempo per l’intelligenza artificiale che impiega decenni per essere accettata cambiamento climatico.
Esistono numerosi rischi a livello sociale, tra cui un aumento dell’ingiustizia, un deterioramento della stabilità e un deterioramento della percezione comune della realtà. Qui terroristi e criminali sono impegnati in una vasta attività. L’intelligenza artificiale potrebbe concentrarsi nelle mani di un numero ristretto di attori, portando ad una maggiore disuguaglianza globale, facilitando la guerra automatizzata, la manipolazione di massa adattata a ciascun individuo e la sorveglianza onnipresente.
Come autonomo L’intelligenza artificiale diventa più sofisticata ed è in grado di pianificare, agire nel mondo e raggiungere i propri obiettivi, questi rischi non potranno che aumentare. Questi obiettivi potrebbero non essere nel nostro interesse e, nel caso di cattivi attori, potrebbero addirittura essere dannosi. Al momento non è chiaro come risolvere il problema dell'allineamento dell'IA, che implica far corrispondere il comportamento dell'IA ai nostri complessi obiettivi. Inoltre, è molto semplice trascurare le precauzioni di sicurezza quando si corre con l’intenzione di vincere.
Il software normale è difficile da controllare per gli esseri umani, per non parlare dei sofisticati sistemi di intelligenza artificiale che stanno diventando sempre più abili nell’ingegneria sociale, nell’hacking, nell’inganno e nella pianificazione strategica. Questo è qualcosa che i sistemi di intelligenza artificiale autonomi possono apprendere dalle persone o creare da soli.
Questi sistemi hanno la capacità di costruire coalizioni con individui e altri sistemi, conquistare la fiducia, garantire finanziamenti e influenzare i decisori. Come un worm, sono capaci di autoreplicarsi attraverso la rete. Enormi quantità di codice sono già scritte con l'assistenza degli assistenti AI; in futuro, i sistemi potrebbero incorporare exploit in numerosi sistemi cruciali. I sistemi di intelligenza artificiale hanno la capacità di utilizzare o minacciare armi biologiche o autonome in combattimento aperto. Questa è semplicemente la continuazione di gli attuali movimenti verso la ricerca biologica, l’intelligenza artificiale e l’automazione della guerra. Le persone potrebbero trovare troppo difficile intervenire e resistere.
In molti casi, siamo disposti a dare loro le redini senza che nemmeno lo chiedano. Molti individui e aziende sono disposti a mettere in atto tali sistemi in un contesto competitivo per paura di rimanere indietro rispetto alla concorrenza.
Il documento completo è disponibile qui.
Negazione di responsabilità
In linea con la Linee guida del progetto Trust, si prega di notare che le informazioni fornite in questa pagina non intendono essere e non devono essere interpretate come consulenza legale, fiscale, di investimento, finanziaria o di qualsiasi altra forma. È importante investire solo ciò che puoi permetterti di perdere e chiedere una consulenza finanziaria indipendente in caso di dubbi. Per ulteriori informazioni, suggeriamo di fare riferimento ai termini e alle condizioni nonché alle pagine di aiuto e supporto fornite dall'emittente o dall'inserzionista. MetaversePost si impegna a fornire report accurati e imparziali, ma le condizioni di mercato sono soggette a modifiche senza preavviso.
Circa l'autore
Damir è il team leader, il product manager e l'editore di Metaverse Post, che copre argomenti come AI/ML, AGI, LLM, Metaverse e Web3campi correlati. I suoi articoli attirano un vasto pubblico di oltre un milione di utenti ogni mese. Sembra essere un esperto con 10 anni di esperienza in SEO e marketing digitale. Damir è stato menzionato in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e altre pubblicazioni. Viaggia tra Emirati Arabi Uniti, Turchia, Russia e CSI come nomade digitale. Damir ha conseguito una laurea in fisica, che secondo lui gli ha fornito le capacità di pensiero critico necessarie per avere successo nel panorama in continua evoluzione di Internet.
Altri articoliDamir è il team leader, il product manager e l'editore di Metaverse Post, che copre argomenti come AI/ML, AGI, LLM, Metaverse e Web3campi correlati. I suoi articoli attirano un vasto pubblico di oltre un milione di utenti ogni mese. Sembra essere un esperto con 10 anni di esperienza in SEO e marketing digitale. Damir è stato menzionato in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e altre pubblicazioni. Viaggia tra Emirati Arabi Uniti, Turchia, Russia e CSI come nomade digitale. Damir ha conseguito una laurea in fisica, che secondo lui gli ha fornito le capacità di pensiero critico necessarie per avere successo nel panorama in continua evoluzione di Internet.