OpenAI: L'intelligenza artificiale potrebbe potenzialmente causare molti danni alle persone, ma cercare di fermare il progresso non è un'opzione
In Breve
OpenAIIl documento di “Planning for AGI and Beyond” suggerisce un'introduzione graduale e lenta di modelli più complessi e “intelligenti”, organizzando controlli indipendenti di sistemi di grandi dimensioni e limitando le risorse informatiche.
OpenAI vuole che l'intelligenza artificiale sia aperta a tutti allo stesso modo e crei soluzioni più coerenti e modelli gestibili per ridurre pregiudizi e comportamenti indesiderati.
OpenAI ha recentemente pubblicato un documento intitolato “Pianificazione per AGI e oltre”. Delinea le idee generali che guidano le azioni dell'azienda mentre il mondo si avvicina allo sviluppo dell'AGI (intelligenza artificiale generale).
OpenAI con ritiene che, sebbene l’intelligenza artificiale abbia il potenziale di causare danni significativi alle persone, tentare di fermare il progresso non è un’opzione. Di conseguenza, dobbiamo imparare a mantenere questo miglioramento in modo che non si deteriori in modo significativo.
Il documento è reperibile qui. Evidenziamo alcuni elementi cruciali da esso:
- OpenAI vuole che l'AGI aiuti le persone a prosperare in tutti gli aspetti della loro vita, sia dal punto di vista economico che scientifico.
Invece di creare una fantastica IA di grandi dimensioni e rilasciarla immediatamente nel mondo, OpenAI introdurrà gradualmente modelli più complicati e “intelligenti”. Il presupposto è che il graduale aumento delle capacità dell’intelligenza artificiale non sconvolgerà il mondo, dando agli esseri umani il tempo di adattarsi, adattare l’economia e costruire procedure per interagire con l’intelligenza artificiale. - OpenAI invita tutte le organizzazioni ad adottare formalmente il suddetto principio (introdurre gradualmente una potente intelligenza artificiale). Altman raccomanda inoltre di limitare la quantità di risorse informatiche che possono essere utilizzate per addestrare i modelli e di istituire controlli imparziali dei principali sistemi prima che siano resi disponibili al grande pubblico. Invece di impegnarsi in gare del tipo “chi sarà il primo a lanciare un modello più bello e più grande?” OpenAI chiede alle imprese di farlo lavorare insieme per migliorare la sicurezza dell'IA.
- OpenAI ritiene fondamentale che i governi siano informati sui programmi di formazione che superano una determinata scala. Questo è un concetto intrigante e vorremmo saperne di più piani OpenAI ha a questo proposito. All'inizio questa proposta non mi sembra granché.
- OpenAI cercherà di sviluppare modelli più affidabili e controllabili, molto probabilmente per limitare i pregiudizi e i comportamenti sfavorevoli nell’intelligenza artificiale. L'approccio adottato da OpenAI in questo caso si tratta di rendere il modello disponibile al grande pubblico in una forma molto vincolata, dando allo stesso tempo agli utenti la possibilità di personalizzarlo. Dal momento che i consumatori non saranno in grado di “personalizzare” nulla lì, non sono sicuro di come ciò possa aiutare il modello nel suo insieme a diventare meno parziale. A meno che non assolva l'azienda dalla responsabilità per le azioni del modello.
Nel complesso, il documento punta nella giusta direzione. Tuttavia, c'è stato un piccolo conflitto tra "non mostreremo immediatamente modelli interessanti al pubblico, ma ne parleremo agli stati" e “la gente dovrebbe saperlo sui progressi dell’intelligenza artificiale”. A breve, attendiamo chiarimenti dettagliati da parte di OpenAI su tutti gli argomenti.
Per saperne di più sull'intelligenza artificiale:
Negazione di responsabilità
In linea con la Linee guida del progetto Trust, si prega di notare che le informazioni fornite in questa pagina non intendono essere e non devono essere interpretate come consulenza legale, fiscale, di investimento, finanziaria o di qualsiasi altra forma. È importante investire solo ciò che puoi permetterti di perdere e chiedere una consulenza finanziaria indipendente in caso di dubbi. Per ulteriori informazioni, suggeriamo di fare riferimento ai termini e alle condizioni nonché alle pagine di aiuto e supporto fornite dall'emittente o dall'inserzionista. MetaversePost si impegna a fornire report accurati e imparziali, ma le condizioni di mercato sono soggette a modifiche senza preavviso.
Circa l'autore
Damir è il team leader, il product manager e l'editore di Metaverse Post, che copre argomenti come AI/ML, AGI, LLM, Metaverse e Web3campi correlati. I suoi articoli attirano un vasto pubblico di oltre un milione di utenti ogni mese. Sembra essere un esperto con 10 anni di esperienza in SEO e marketing digitale. Damir è stato menzionato in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e altre pubblicazioni. Viaggia tra Emirati Arabi Uniti, Turchia, Russia e CSI come nomade digitale. Damir ha conseguito una laurea in fisica, che secondo lui gli ha fornito le capacità di pensiero critico necessarie per avere successo nel panorama in continua evoluzione di Internet.
Altri articoliDamir è il team leader, il product manager e l'editore di Metaverse Post, che copre argomenti come AI/ML, AGI, LLM, Metaverse e Web3campi correlati. I suoi articoli attirano un vasto pubblico di oltre un milione di utenti ogni mese. Sembra essere un esperto con 10 anni di esperienza in SEO e marketing digitale. Damir è stato menzionato in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e altre pubblicazioni. Viaggia tra Emirati Arabi Uniti, Turchia, Russia e CSI come nomade digitale. Damir ha conseguito una laurea in fisica, che secondo lui gli ha fornito le capacità di pensiero critico necessarie per avere successo nel panorama in continua evoluzione di Internet.