Processo di intelligenza artificiale di Hiroshima
Cos'è il processo di intelligenza artificiale di Hiroshima?
Quest’anno, come ogni anno, il Giappone ha ospitato il vertice del G7 nel maggio 2023. L'Unione Europea, il Canada, il Giappone, l'Italia, la Francia, gli Stati Uniti e il Regno Unito sono tra le nazioni rappresentate al vertice del G7. La location era Hiroshima e l’intelligenza artificiale è stata l’argomento principale di discussione in questa conferenza del G7. Le conclusioni più importanti di questo vertice mostrano che i leader hanno dato priorità al rafforzamento del quadro normativo per ridurre i possibili rischi associati all’intelligenza artificiale e all’accelerazione dell’uso dell’intelligenza artificiale per casi d’uso vantaggiosi nel governo e nell’economia.
Leggi Anche: RBA valuta il quadro normativo per Stablecoin e CBDC |
Comprensione del processo di intelligenza artificiale di Hiroshima
Nel maggio 2023, i paesi del G7 hanno concordato di dare priorità alla collaborazione per un’intelligenza artificiale inclusiva la governance, cercando di sviluppare sistemi sicuri e affidabili massimizzando al tempo stesso i vantaggi della tecnologia, anche per le economie emergenti e in via di sviluppo, colmando i divari digitali.
I principi di Hiroshima per i modelli di IA avanzati, compresi i modelli fondamentali e i sistemi di IA generativa, sono stati approvati dal G7 lo scorso ottobre. Si tratta di un insieme di 11 principi guida internazionali destinati ad applicarsi a tutti gli attori dell’IA e coprire la progettazione, lo sviluppo, l’implementazione e l’uso di sistemi avanzati di IA.
- Adottare misure adeguate durante lo sviluppo di sistemi avanzati di IA, anche prima e durante la loro diffusione e immissione sul mercato, per identificare, valutare e mitigare i rischi durante l'intero ciclo di vita dell'IA.
- Identificare e mitigare le vulnerabilità e, se del caso, gli incidenti e i modelli di uso improprio, dopo la diffusione, compresa l'immissione sul mercato.
- Segnalare pubblicamente le capacità, i limiti e gli ambiti di utilizzo appropriato e inappropriato dei sistemi avanzati di IA, per garantire una sufficiente trasparenza e contribuire così ad aumentare la responsabilità.
- Lavorare verso la condivisione responsabile delle informazioni e la segnalazione degli incidenti tra le organizzazioni che sviluppano sistemi avanzati di intelligenza artificiale, anche con l’industria, i governi, la società civile e il mondo accademico.
- Sviluppare, attuare e divulgare politiche di governance e gestione del rischio dell’IA, fondate su un approccio basato sul rischio, comprese politiche sulla privacy e misure di mitigazione, in particolare per le organizzazioni che sviluppano sistemi avanzati di IA.
- Investire e implementare solidi controlli di sicurezza, tra cui la sicurezza fisica, la sicurezza informatica e le misure di salvaguardia contro le minacce interne durante tutto il ciclo di vita dell’intelligenza artificiale.
- Sviluppa e distribuisci contenuti affidabili autenticazione e meccanismi di provenienza, ove tecnicamente fattibile, come il watermarking o altre tecniche per consentire agli utenti di identificare i contenuti generati dall'intelligenza artificiale.
- Dare priorità alla ricerca per mitigare i rischi per la società e la sicurezza e dare priorità agli investimenti in misure di mitigazione efficaci.
- Dare priorità allo sviluppo di sistemi avanzati di intelligenza artificiale per affrontare le maggiori sfide del mondo, in particolare, ma non solo, la crisi climatica, la salute globale e l’istruzione.
- Promuovere lo sviluppo e, ove opportuno, l’adozione di standard tecnici internazionali.
- Implementare misure adeguate di immissione dei dati e protezioni per i dati personali e la proprietà intellettuale.
Questi principi sono a loro volta serviti come base per la creazione di a codice di comportamento per gli sviluppatori di intelligenza artificiale. L’adesione delle aziende a questi principi è volontaria e dovrebbe logicamente essere adattata alle specificità di ciascuna giurisdizione.
Leggi Anche: Nvidia lancia la GPU H200 per facilitare i carichi di lavoro di elaborazione dell'intelligenza artificiale generativa |
Ultime notizie sul processo AI di Hiroshima
- I paesi industriali del G7 sono pronti a concordare un codice di condotta per le imprese in via di sviluppo avanzate intelligenza artificiale sistemi. Il codice in 11 punti mira a promuovere un’IA sicura, protetta e affidabile a livello globale. Il processo, avviato durante il “processo AI di Hiroshima”, mira ad affrontare le preoccupazioni sulla privacy e i rischi per la sicurezza. Il codice impone alle aziende di rendere pubblici i rapporti sulle capacità, le limitazioni e gli usi impropri dell’intelligenza artificiale.
- Il primo ministro britannico Rishi Sunak ha annunciato il primo Istituto per la sicurezza dell’intelligenza artificiale al mondo, con l’obiettivo di valutare e testare modelli di intelligenza artificiale per affrontare pregiudizi, disinformazione e minacce estreme. Il vertice, in programma dall’1 al 2 novembre, riunirà le parti interessate e gli esperti dell’IA per stabilire un consenso internazionale sulla sicurezza dell’IA. La posizione cauta del Regno Unito Regolamento AI e verrà evidenziata la sua attenzione all'innovazione.
Ultimi post social sul processo AI di Hiroshima
«Torna all'indice del glossarioNegazione di responsabilità
In linea con la Linee guida del progetto Trust, si prega di notare che le informazioni fornite in questa pagina non intendono essere e non devono essere interpretate come consulenza legale, fiscale, di investimento, finanziaria o di qualsiasi altra forma. È importante investire solo ciò che puoi permetterti di perdere e chiedere una consulenza finanziaria indipendente in caso di dubbi. Per ulteriori informazioni, suggeriamo di fare riferimento ai termini e alle condizioni nonché alle pagine di aiuto e supporto fornite dall'emittente o dall'inserzionista. MetaversePost si impegna a fornire report accurati e imparziali, ma le condizioni di mercato sono soggette a modifiche senza preavviso.
Circa l'autore
Viktoriia è una scrittrice su una varietà di argomenti tecnologici, tra cui Web3.0, AI e criptovalute. La sua vasta esperienza le consente di scrivere articoli approfonditi per un pubblico più ampio.
Altri articoliViktoriia è una scrittrice su una varietà di argomenti tecnologici, tra cui Web3.0, AI e criptovalute. La sua vasta esperienza le consente di scrivere articoli approfonditi per un pubblico più ampio.