Notizie SMW Tecnologia
19 Maggio 2023

OpenAI: L'intelligenza artificiale potrebbe potenzialmente causare molti danni alle persone, ma cercare di fermare il progresso non è un'opzione

In Breve

OpenAIIl documento di “Planning for AGI and Beyond” suggerisce un'introduzione graduale e lenta di modelli più complessi e “intelligenti”, organizzando controlli indipendenti di sistemi di grandi dimensioni e limitando le risorse informatiche.

OpenAI vuole che l'intelligenza artificiale sia aperta a tutti allo stesso modo e crei soluzioni più coerenti e modelli gestibili per ridurre pregiudizi e comportamenti indesiderati.

OpenAI ha recentemente pubblicato un documento intitolato “Pianificazione per AGI e oltre”. Delinea le idee generali che guidano le azioni dell'azienda mentre il mondo si avvicina allo sviluppo dell'AGI (intelligenza artificiale generale).

OpenAI: L'intelligenza artificiale potrebbe potenzialmente causare molti danni alle persone, ma cercare di fermare il progresso non è un'opzione
Consigliato: Come fare ChatGPT e contenuto AI non rilevabile nel 2023

OpenAI con ritiene che, sebbene l’intelligenza artificiale abbia il potenziale di causare danni significativi alle persone, tentare di fermare il progresso non è un’opzione. Di conseguenza, dobbiamo imparare a mantenere questo miglioramento in modo che non si deteriori in modo significativo.

Il documento è reperibile qui. Evidenziamo alcuni elementi cruciali da esso:

  • OpenAI vuole che l'AGI aiuti le persone a prosperare in tutti gli aspetti della loro vita, sia dal punto di vista economico che scientifico.
    Invece di creare una fantastica IA di grandi dimensioni e rilasciarla immediatamente nel mondo, OpenAI introdurrà gradualmente modelli più complicati e “intelligenti”. Il presupposto è che il graduale aumento delle capacità dell’intelligenza artificiale non sconvolgerà il mondo, dando agli esseri umani il tempo di adattarsi, adattare l’economia e costruire procedure per interagire con l’intelligenza artificiale.
  • OpenAI invita tutte le organizzazioni ad adottare formalmente il suddetto principio (introdurre gradualmente una potente intelligenza artificiale). Altman raccomanda inoltre di limitare la quantità di risorse informatiche che possono essere utilizzate per addestrare i modelli e di istituire controlli imparziali dei principali sistemi prima che siano resi disponibili al grande pubblico. Invece di impegnarsi in gare del tipo “chi sarà il primo a lanciare un modello più bello e più grande?” OpenAI chiede alle imprese di farlo lavorare insieme per migliorare la sicurezza dell'IA.
  • OpenAI ritiene fondamentale che i governi siano informati sui programmi di formazione che superano una determinata scala. Questo è un concetto intrigante e vorremmo saperne di più piani OpenAI ha a questo proposito. All'inizio questa proposta non mi sembra granché.
  • OpenAI cercherà di sviluppare modelli più affidabili e controllabili, molto probabilmente per limitare i pregiudizi e i comportamenti sfavorevoli nell’intelligenza artificiale. L'approccio adottato da OpenAI in questo caso si tratta di rendere il modello disponibile al grande pubblico in una forma molto vincolata, dando allo stesso tempo agli utenti la possibilità di personalizzarlo. Dal momento che i consumatori non saranno in grado di “personalizzare” nulla lì, non sono sicuro di come ciò possa aiutare il modello nel suo insieme a diventare meno parziale. A meno che non assolva l'azienda dalla responsabilità per le azioni del modello.

Nel complesso, il documento punta nella giusta direzione. Tuttavia, c'è stato un piccolo conflitto tra "non mostreremo immediatamente modelli interessanti al pubblico, ma ne parleremo agli stati" e “la gente dovrebbe saperlo sui progressi dell’intelligenza artificiale”. A breve, attendiamo chiarimenti dettagliati da parte di OpenAI su tutti gli argomenti.

Per saperne di più sull'intelligenza artificiale:

Negazione di responsabilità

In linea con la Linee guida del progetto Trust, si prega di notare che le informazioni fornite in questa pagina non intendono essere e non devono essere interpretate come consulenza legale, fiscale, di investimento, finanziaria o di qualsiasi altra forma. È importante investire solo ciò che puoi permetterti di perdere e chiedere una consulenza finanziaria indipendente in caso di dubbi. Per ulteriori informazioni, suggeriamo di fare riferimento ai termini e alle condizioni nonché alle pagine di aiuto e supporto fornite dall'emittente o dall'inserzionista. MetaversePost si impegna a fornire report accurati e imparziali, ma le condizioni di mercato sono soggette a modifiche senza preavviso.

Circa l'autore

Damir è il team leader, il product manager e l'editore di Metaverse Post, che copre argomenti come AI/ML, AGI, LLM, Metaverse e Web3campi correlati. I suoi articoli attirano un vasto pubblico di oltre un milione di utenti ogni mese. Sembra essere un esperto con 10 anni di esperienza in SEO e marketing digitale. Damir è stato menzionato in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e altre pubblicazioni. Viaggia tra Emirati Arabi Uniti, Turchia, Russia e CSI come nomade digitale. Damir ha conseguito una laurea in fisica, che secondo lui gli ha fornito le capacità di pensiero critico necessarie per avere successo nel panorama in continua evoluzione di Internet. 

Altri articoli
Damir Jalalov
Damir Jalalov

Damir è il team leader, il product manager e l'editore di Metaverse Post, che copre argomenti come AI/ML, AGI, LLM, Metaverse e Web3campi correlati. I suoi articoli attirano un vasto pubblico di oltre un milione di utenti ogni mese. Sembra essere un esperto con 10 anni di esperienza in SEO e marketing digitale. Damir è stato menzionato in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e altre pubblicazioni. Viaggia tra Emirati Arabi Uniti, Turchia, Russia e CSI come nomade digitale. Damir ha conseguito una laurea in fisica, che secondo lui gli ha fornito le capacità di pensiero critico necessarie per avere successo nel panorama in continua evoluzione di Internet. 

Hot Stories
Iscriviti alla nostra newsletter.
Notizie

Arriva il giorno della sentenza: il destino di CZ è in bilico mentre la Corte degli Stati Uniti considera l'appello del Dipartimento di Giustizia

Changpeng Zhao è pronto ad affrontare oggi la sentenza in un tribunale americano a Seattle.

Per saperne di più

I fondatori di Samourai Wallet sono accusati di aver facilitato 2 miliardi di dollari in affari nel Darknet

L'apprensione dei fondatori di Samourai Wallet rappresenta una notevole battuta d'arresto per il settore, sottolineando la persistente ...

Per saperne di più
Unisciti alla nostra comunità tecnologica innovativa
Scopri di più
Per saperne di più
Animoca Brands collabora con Darewise per lanciare il progetto Opal Bitcoin, espandendosi nel regno dei Bitcoin
Affari Notizie Tecnologia
Animoca Brands collabora con Darewise per lanciare il progetto Opal Bitcoin, espandendosi nel regno dei Bitcoin
30 aprile 2024
Il gruppo HashKey unisce le forze con GreenBTC.Club per raggiungere la neutralità delle emissioni di carbonio per l'ETF Bosera HashKey Bitcoin
Affari Notizie Tecnologia
Il gruppo HashKey unisce le forze con GreenBTC.Club per raggiungere la neutralità delle emissioni di carbonio per l'ETF Bosera HashKey Bitcoin
30 aprile 2024
Sei ETF Spot su Bitcoin ed Ether debuttano a Hong Kong, evidenziando l'impegno della città nel guidare il mercato delle criptovalute
Affari Mercati Storie e recensioni Tecnologia
Sei ETF Spot su Bitcoin ed Ether debuttano a Hong Kong, evidenziando l'impegno della città nel guidare il mercato delle criptovalute
30 aprile 2024
EigenLayer Airdrop La strategia scatena discussioni, la comunità sostiene un'allocazione ingiusta dei token
Mercati Notizie Tecnologia
EigenLayer Airdrop La strategia scatena discussioni, la comunità sostiene un'allocazione ingiusta dei token
30 aprile 2024
LABORATORI DI CRITTOMERIA PTE. srl.