Le aziende di intelligenza artificiale dovrebbero spendere il 30% dei propri finanziamenti in ricerca e sviluppo in materia di sicurezza ed etica
I danni causati dai pregiudizi e dalle false informazioni sono già evidenti. Ci sono indicazioni che potrebbero emergere anche altri pericoli. È fondamentale mitigare i rischi attuali e prevedere quelli emergenti.
Non sapremmo come garantire che i sistemi autonomi avanzati o l’AGI siano sicuri o come testarli se fossero disponibili in questo momento. Inoltre, i governi non hanno le istituzioni necessarie per fermare gli abusi e mettere in atto pratiche sicure, anche se lo facessero. Gli autori sostengono lo sviluppo di un controllo governativo efficiente e il reindirizzamento degli sforzi di ricerca e sviluppo verso la sicurezza e l’etica.
Controllo e onestà (sistemi più sofisticati possono superare in astuzia i test producendo risposte false ma convincenti), robustezza (in nuove condizioni con cambiamenti di distribuzione o input contraddittori), interpretabilità (comprensione del lavoro), valutazione del rischio (emergono nuove abilità difficili da prevedere), e l’emergere di nuove sfide (modalità di fallimento senza precedenti) sono alcune delle sfide di ricerca e sviluppo che non potranno essere risolte sviluppare sistemi di intelligenza artificiale più potenti.
Gli autori suggeriscono che la sicurezza e l’etica dovrebbero ricevere almeno un terzo dei finanziamenti per la ricerca e sviluppo sull’intelligenza artificiale.
Gli standard devono essere applicati in relazione sia alle istituzioni nazionali che alla governance globale. L’intelligenza artificiale ne è sprovvista, ma le industrie farmaceutiche, finanziarie e nucleari sì. Ora ci sono incentivi affinché le nazioni e le imprese possano economizzare a scapito della sicurezza. Le aziende possono trarre profitto dai progressi dell’intelligenza artificiale lasciando che sia la società a sopportarne le conseguenze, proprio come le industrie scaricano i rifiuti nei fiumi.
Un forte know-how tecnico e la capacità di muoversi rapidamente sono requisiti per le istituzioni nazionali. Nell’arena globale, le partnership e gli accordi sono essenziali. È necessario evitare ostacoli burocratici a modelli piccoli e prevedibili per salvaguardare la ricerca accademica e le applicazioni a basso rischio. I modelli di frontiera – un gruppo selezionato dei sistemi più potenti addestrati su supercomputer da miliardi di dollari – dovrebbero ricevere la massima attenzione.
I governi devono essere più aperti riguardo agli sviluppi affinché le normative siano efficaci. Le autorità di regolamentazione dovrebbero imporre la registrazione dei modelli, salvaguardare gli informatori interni, imporre la segnalazione degli incidenti e tenere d’occhio lo sviluppo dei modelli e l’uso dei supercomputer.
Le autorità di regolamentazione devono inoltre avere accesso a questi sistemi prima della loro immissione in produzione per poter effettuare la valutazione potenzialmente dannoso caratteristiche come la generazione di agenti patogeni, l'autoreplicazione e la penetrazione del sistema.
I sistemi potenzialmente pericolosi necessitano di una varietà di metodi di controllo. Modello di frontiera i creatori devono inoltre essere ritenuti legalmente responsabili per eventuali danni ai loro sistemi che avrebbero potuto essere evitati. Ciò dovrebbe incoraggiare gli investimenti in sicurezza. Altre funzionalità, come le licenze governative, la capacità di fermare lo sviluppo in risposta a potenzialmente pericoloso capacità, controlli di accesso e misure di sicurezza delle informazioni impermeabili agli hacker a livello statale potrebbero essere necessari per sistemi estremamente capaci.
Sebbene non esistano regole, le aziende dovrebbero chiarire rapidamente le proprie responsabilità “se-allora” delineando i passi precisi che intraprenderanno se determinate funzionalità del modello superano una linea rossa. Queste misure devono essere spiegate in modo approfondito e confermate in modo indipendente. Così è. Un separato Supplemento alla politica compila una sintesi delle tesi.
- In ottobre si terrà il Frontier Model Forum ha introdotto un fondo per la sicurezza AI di oltre 10 milioni di dollari, con l'obiettivo di promuovere progressi nella ricerca sulla sicurezza dell'intelligenza artificiale. Il fondo, una collaborazione tra il Frontier Model Forum e partner filantropici, fornirà supporto a ricercatori indipendenti in tutto il mondo affiliati a istituzioni accademiche, organizzazioni di ricerca e startup. I principali contributori all’iniziativa sono Anthropic, Google, Microsoft, OpenAI, insieme a organizzazioni filantropiche come la Patrick J. McGovern Foundation, la David and Lucile Packard Foundation, Eric Schmidt e Jaan Tallinn. L’AI Safety Fund si concentra principalmente sul rafforzamento dello sviluppo di nuove tecniche di valutazione e approcci di red teaming per i modelli di intelligenza artificiale, con l’obiettivo di scoprire potenziali pericoli. Il Forum prevede di istituire un comitato consultivo nei prossimi mesi e poco dopo pubblicherà il suo primo invito a presentare proposte e assegnerà i premi.
Negazione di responsabilità
In linea con la Linee guida del progetto Trust, si prega di notare che le informazioni fornite in questa pagina non intendono essere e non devono essere interpretate come consulenza legale, fiscale, di investimento, finanziaria o di qualsiasi altra forma. È importante investire solo ciò che puoi permetterti di perdere e chiedere una consulenza finanziaria indipendente in caso di dubbi. Per ulteriori informazioni, suggeriamo di fare riferimento ai termini e alle condizioni nonché alle pagine di aiuto e supporto fornite dall'emittente o dall'inserzionista. MetaversePost si impegna a fornire report accurati e imparziali, ma le condizioni di mercato sono soggette a modifiche senza preavviso.
Circa l'autore
Damir è il team leader, il product manager e l'editore di Metaverse Post, che copre argomenti come AI/ML, AGI, LLM, Metaverse e Web3campi correlati. I suoi articoli attirano un vasto pubblico di oltre un milione di utenti ogni mese. Sembra essere un esperto con 10 anni di esperienza in SEO e marketing digitale. Damir è stato menzionato in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e altre pubblicazioni. Viaggia tra Emirati Arabi Uniti, Turchia, Russia e CSI come nomade digitale. Damir ha conseguito una laurea in fisica, che secondo lui gli ha fornito le capacità di pensiero critico necessarie per avere successo nel panorama in continua evoluzione di Internet.
Altri articoliDamir è il team leader, il product manager e l'editore di Metaverse Post, che copre argomenti come AI/ML, AGI, LLM, Metaverse e Web3campi correlati. I suoi articoli attirano un vasto pubblico di oltre un milione di utenti ogni mese. Sembra essere un esperto con 10 anni di esperienza in SEO e marketing digitale. Damir è stato menzionato in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e altre pubblicazioni. Viaggia tra Emirati Arabi Uniti, Turchia, Russia e CSI come nomade digitale. Damir ha conseguito una laurea in fisica, che secondo lui gli ha fornito le capacità di pensiero critico necessarie per avere successo nel panorama in continua evoluzione di Internet.