Notizie Tecnologia
Ottobre 27, 2023

Le aziende di intelligenza artificiale dovrebbero spendere il 30% dei propri finanziamenti in ricerca e sviluppo in materia di sicurezza ed etica

I danni causati dai pregiudizi e dalle false informazioni sono già evidenti. Ci sono indicazioni che potrebbero emergere anche altri pericoli. È fondamentale mitigare i rischi attuali e prevedere quelli emergenti.

Le aziende di intelligenza artificiale dovrebbero spendere il 30% dei propri finanziamenti in ricerca e sviluppo in materia di sicurezza ed etica

Non sapremmo come garantire che i sistemi autonomi avanzati o l’AGI siano sicuri o come testarli se fossero disponibili in questo momento. Inoltre, i governi non hanno le istituzioni necessarie per fermare gli abusi e mettere in atto pratiche sicure, anche se lo facessero. Gli autori sostengono lo sviluppo di un controllo governativo efficiente e il reindirizzamento degli sforzi di ricerca e sviluppo verso la sicurezza e l’etica.

Controllo e onestà (sistemi più sofisticati possono superare in astuzia i test producendo risposte false ma convincenti), robustezza (in nuove condizioni con cambiamenti di distribuzione o input contraddittori), interpretabilità (comprensione del lavoro), valutazione del rischio (emergono nuove abilità difficili da prevedere), e l’emergere di nuove sfide (modalità di fallimento senza precedenti) sono alcune delle sfide di ricerca e sviluppo che non potranno essere risolte sviluppare sistemi di intelligenza artificiale più potenti.

Gli autori suggeriscono che la sicurezza e l’etica dovrebbero ricevere almeno un terzo dei finanziamenti per la ricerca e sviluppo sull’intelligenza artificiale.

Gli standard devono essere applicati in relazione sia alle istituzioni nazionali che alla governance globale. L’intelligenza artificiale ne è sprovvista, ma le industrie farmaceutiche, finanziarie e nucleari sì. Ora ci sono incentivi affinché le nazioni e le imprese possano economizzare a scapito della sicurezza. Le aziende possono trarre profitto dai progressi dell’intelligenza artificiale lasciando che sia la società a sopportarne le conseguenze, proprio come le industrie scaricano i rifiuti nei fiumi.

Un forte know-how tecnico e la capacità di muoversi rapidamente sono requisiti per le istituzioni nazionali. Nell’arena globale, le partnership e gli accordi sono essenziali. È necessario evitare ostacoli burocratici a modelli piccoli e prevedibili per salvaguardare la ricerca accademica e le applicazioni a basso rischio. I modelli di frontiera – un gruppo selezionato dei sistemi più potenti addestrati su supercomputer da miliardi di dollari – dovrebbero ricevere la massima attenzione.

I governi devono essere più aperti riguardo agli sviluppi affinché le normative siano efficaci. Le autorità di regolamentazione dovrebbero imporre la registrazione dei modelli, salvaguardare gli informatori interni, imporre la segnalazione degli incidenti e tenere d’occhio lo sviluppo dei modelli e l’uso dei supercomputer.

Le autorità di regolamentazione devono inoltre avere accesso a questi sistemi prima della loro immissione in produzione per poter effettuare la valutazione potenzialmente dannoso caratteristiche come la generazione di agenti patogeni, l'autoreplicazione e la penetrazione del sistema.

I sistemi potenzialmente pericolosi necessitano di una varietà di metodi di controllo. Modello di frontiera i creatori devono inoltre essere ritenuti legalmente responsabili per eventuali danni ai loro sistemi che avrebbero potuto essere evitati. Ciò dovrebbe incoraggiare gli investimenti in sicurezza. Altre funzionalità, come le licenze governative, la capacità di fermare lo sviluppo in risposta a potenzialmente pericoloso capacità, controlli di accesso e misure di sicurezza delle informazioni impermeabili agli hacker a livello statale potrebbero essere necessari per sistemi estremamente capaci.

Sebbene non esistano regole, le aziende dovrebbero chiarire rapidamente le proprie responsabilità “se-allora” delineando i passi precisi che intraprenderanno se determinate funzionalità del modello superano una linea rossa. Queste misure devono essere spiegate in modo approfondito e confermate in modo indipendente. Così è. Un separato Supplemento alla politica compila una sintesi delle tesi.

  • In ottobre si terrà il Frontier Model Forum ha introdotto un fondo per la sicurezza AI di oltre 10 milioni di dollari, con l'obiettivo di promuovere progressi nella ricerca sulla sicurezza dell'intelligenza artificiale. Il fondo, una collaborazione tra il Frontier Model Forum e partner filantropici, fornirà supporto a ricercatori indipendenti in tutto il mondo affiliati a istituzioni accademiche, organizzazioni di ricerca e startup. I principali contributori all’iniziativa sono Anthropic, Google, Microsoft, OpenAI, insieme a organizzazioni filantropiche come la Patrick J. McGovern Foundation, la David and Lucile Packard Foundation, Eric Schmidt e Jaan Tallinn. L’AI Safety Fund si concentra principalmente sul rafforzamento dello sviluppo di nuove tecniche di valutazione e approcci di red teaming per i modelli di intelligenza artificiale, con l’obiettivo di scoprire potenziali pericoli. Il Forum prevede di istituire un comitato consultivo nei prossimi mesi e poco dopo pubblicherà il suo primo invito a presentare proposte e assegnerà i premi.
Leggi Anche: L'autorità britannica per la concorrenza e i mercati avvia la revisione dei modelli di intelligenza artificiale mentre gli sforzi di regolamentazione del governo si intensificano

Negazione di responsabilità

In linea con la Linee guida del progetto Trust, si prega di notare che le informazioni fornite in questa pagina non intendono essere e non devono essere interpretate come consulenza legale, fiscale, di investimento, finanziaria o di qualsiasi altra forma. È importante investire solo ciò che puoi permetterti di perdere e chiedere una consulenza finanziaria indipendente in caso di dubbi. Per ulteriori informazioni, suggeriamo di fare riferimento ai termini e alle condizioni nonché alle pagine di aiuto e supporto fornite dall'emittente o dall'inserzionista. MetaversePost si impegna a fornire report accurati e imparziali, ma le condizioni di mercato sono soggette a modifiche senza preavviso.

Circa l'autore

Damir è il team leader, il product manager e l'editore di Metaverse Post, che copre argomenti come AI/ML, AGI, LLM, Metaverse e Web3campi correlati. I suoi articoli attirano un vasto pubblico di oltre un milione di utenti ogni mese. Sembra essere un esperto con 10 anni di esperienza in SEO e marketing digitale. Damir è stato menzionato in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e altre pubblicazioni. Viaggia tra Emirati Arabi Uniti, Turchia, Russia e CSI come nomade digitale. Damir ha conseguito una laurea in fisica, che secondo lui gli ha fornito le capacità di pensiero critico necessarie per avere successo nel panorama in continua evoluzione di Internet. 

Altri articoli
Damir Jalalov
Damir Jalalov

Damir è il team leader, il product manager e l'editore di Metaverse Post, che copre argomenti come AI/ML, AGI, LLM, Metaverse e Web3campi correlati. I suoi articoli attirano un vasto pubblico di oltre un milione di utenti ogni mese. Sembra essere un esperto con 10 anni di esperienza in SEO e marketing digitale. Damir è stato menzionato in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e altre pubblicazioni. Viaggia tra Emirati Arabi Uniti, Turchia, Russia e CSI come nomade digitale. Damir ha conseguito una laurea in fisica, che secondo lui gli ha fornito le capacità di pensiero critico necessarie per avere successo nel panorama in continua evoluzione di Internet. 

Cresce l’appetito istituzionale verso gli ETF Bitcoin in un contesto di volatilità

Le informazioni fornite tramite la documentazione 13F rivelano importanti investitori istituzionali che si dilettano negli ETF Bitcoin, sottolineando una crescente accettazione di...

Per saperne di più

Arriva il giorno della sentenza: il destino di CZ è in bilico mentre la Corte degli Stati Uniti considera l'appello del Dipartimento di Giustizia

Changpeng Zhao è pronto ad affrontare oggi la sentenza in un tribunale americano a Seattle.

Per saperne di più
Unisciti alla nostra comunità tecnologica innovativa
Scopri di più
Per saperne di più
Ultimo avvertimento di Edward Snowden agli sviluppatori Bitcoin: "Rendete la privacy una priorità a livello di protocollo o rischiate di perderla"
Mercati Sicurezza Wiki Software Storie e recensioni Tecnologia
Ultimo avvertimento di Edward Snowden agli sviluppatori Bitcoin: "Rendete la privacy una priorità a livello di protocollo o rischiate di perderla"
10 Maggio 2024
La rete Ethereum Layer 2 alimentata dall'ottimismo lancerà la sua mainnet il 15 maggio
Notizie Tecnologia
La rete Ethereum Layer 2 alimentata dall'ottimismo lancerà la sua mainnet il 15 maggio
10 Maggio 2024
Le migliori offerte di questa settimana, i principali investimenti in AI, IT, Web3e Criptovaluta (06-10.04)
digerire Affari Mercati Software Tecnologia
Le migliori offerte di questa settimana, i principali investimenti in AI, IT, Web3e Criptovaluta (06-10.04)
10 Maggio 2024
StaFi integra il supporto per LRT di EigenLayer nel suo stack Liquid-Staking-as-a-Service
Mercati Notizie Tecnologia
StaFi integra il supporto per LRT di EigenLayer nel suo stack Liquid-Staking-as-a-Service
10 Maggio 2024
LABORATORI DI CRITTOMERIA PTE. srl.