Elon Musk sostiene la legge sulla sicurezza dell'intelligenza artificiale della California, ma Vitalik Buterin mette in guardia dai rischi dei modelli open source


In Breve
Elon Musk sostiene l'approvazione del disegno di legge 1047 del Senato della California, sottolineando che tale regolamentazione è necessaria per i prodotti che comportano rischi pubblici.

L'uomo d'affari e investitore Elon Musk ha espresso la sua opinione in un recente post sulla piattaforma di social media X, sostenendo l'approvazione del disegno di legge del Senato della California 1047, o Safe and Secure Innovation for Frontier Artificial Intelligence Models Act. Elon Musk, che da oltre due decenni è a favore della regolamentazione dell'IA, ha sottolineato che tale regolamentazione è necessaria per qualsiasi tecnologia o offerta che presenti possibili rischi per il pubblico.
In risposta, il co-fondatore della blockchain di Ethereum Vitalik Buterin ha espresso preoccupazione su come il disegno di legge potrebbe avere un impatto sul modello di peso open source e ha richiesto prove più sostanziali. Ha menzionato che le versioni precedenti del disegno di legge includevano un requisito per un arresto completo, che era in conflitto con il modello di peso open source, sebbene questo requisito sia stato successivamente rimosso. Vitalik Buterin ha inoltre osservato che alcuni sostenitori della sicurezza dell’IA hanno sostenuto l’idea di vietare i modelli a peso aperto. Ha inoltre suggerito che un'interpretazione caritatevole dell'obiettivo del disegno di legge potrebbe essere quella di imporre test di sicurezza e, se i test rivelassero capacità o comportamenti potenzialmente dannosi, a tali modelli sarebbe vietato il rilascio.
Il disegno di legge 1047 del Senato cerca di creare un quadro normativo per la gestione di modelli di intelligenza artificiale su larga scala. Il disegno di legge si rivolge ai modelli che superano specifiche soglie di calcolo e di costo. Ritiene gli sviluppatori legalmente responsabili per il successivo utilizzo o modifica dei loro modelli. Prima che la formazione abbia inizio, devono certificare che i loro modelli non forniranno o consentiranno “capacità pericolose” e dovranno implementare varie misure di salvaguardia per prevenire tali risultati. L’applicazione di queste normative sarebbe gestita da una “divisione modello di frontiera” di nuova costituzione, responsabile della definizione di standard di sicurezza e di consulenza sulla legislazione relativa all’intelligenza artificiale.
L'SB 1047 affronta la reazione negativa dell'industria dell'intelligenza artificiale, si avvicina il voto dell'assemblea della California
L’introduzione di SB 1047 ha suscitato forti reazioni da parte del settore tecnologico, con molte importanti aziende e organizzazioni di intelligenza artificiale che hanno espresso preoccupazione per i suoi potenziali effetti sull’innovazione e sulle loro operazioni. Entità importanti come l'organizzazione di ricerca sull'intelligenza artificiale OpenAI e società di ricerca e sicurezza sull'intelligenza artificiale Antropico, insieme a diversi membri della delegazione del Congresso della California, si sono pubblicamente opposti al documento. Sostengono che la regolamentazione dell’IA dovrebbe essere gestita a livello federale piuttosto che attraverso un mosaico di politiche specifiche per stato. In risposta al feedback del settore, il disegno di legge è stato rivisto più volte per affrontare queste preoccupazioni preservando i suoi obiettivi fondamentali.
Il Senato della California ha approvato la legge 1047 a maggio, che ora è prevista per il voto dell'Assemblea della California ad agosto. Se dovesse passare, sarebbe necessaria solo la firma del governatore Gavin Newsom per diventare legge in California.
Negazione di responsabilità
In linea con la Linee guida del progetto Trust, si prega di notare che le informazioni fornite in questa pagina non intendono essere e non devono essere interpretate come consulenza legale, fiscale, di investimento, finanziaria o di qualsiasi altra forma. È importante investire solo ciò che puoi permetterti di perdere e chiedere una consulenza finanziaria indipendente in caso di dubbi. Per ulteriori informazioni, suggeriamo di fare riferimento ai termini e alle condizioni nonché alle pagine di aiuto e supporto fornite dall'emittente o dall'inserzionista. MetaversePost si impegna a fornire report accurati e imparziali, ma le condizioni di mercato sono soggette a modifiche senza preavviso.
Circa l'autore
Alisa, una giornalista dedicata al MPost, è specializzato in criptovaluta, prove a conoscenza zero, investimenti e nel vasto regno di Web3. Con un occhio attento alle tendenze e alle tecnologie emergenti, offre una copertura completa per informare e coinvolgere i lettori nel panorama in continua evoluzione della finanza digitale.
Altri articoli

Alisa, una giornalista dedicata al MPost, è specializzato in criptovaluta, prove a conoscenza zero, investimenti e nel vasto regno di Web3. Con un occhio attento alle tendenze e alle tecnologie emergenti, offre una copertura completa per informare e coinvolgere i lettori nel panorama in continua evoluzione della finanza digitale.