Hiroshima AI-proces
Wat is het Hiroshima AI-proces?
Dit jaar was Japan in mei 7 gastheer van de G2023-top, zoals elk jaar. De Europese Unie, Canada, Japan, Italië, Frankrijk, de Verenigde Staten en het Verenigd Koninkrijk behoren tot de landen die vertegenwoordigd zijn op de G7-top. De locatie was Hiroshima en AI was het belangrijkste gespreksonderwerp op deze G7-conferentie. De belangrijkste conclusies van deze top laten zien dat leiders prioriteit gaven aan het versterken van het regelgevingskader om de mogelijke gevaren die met AI gepaard gaan te verminderen en het gebruik van AI te versnellen voor voordelige gebruiksscenario’s in de overheid en de economie.
Inzicht in het AI-proces van Hiroshima
In mei 2023 kwamen de G7-landen overeen om prioriteit te geven aan samenwerking voor inclusieve AI bestuur, waarbij wordt getracht veilige en betrouwbare systemen te ontwikkelen en tegelijkertijd de voordelen van de technologie te maximaliseren, ook voor ontwikkelings- en opkomende economieën, door digitale kloven te overbruggen.
De Hiroshima-principes voor geavanceerde AI-modellen, inclusief fundamentele modellen en generatieve AI-systemen, werden afgelopen oktober door de G7 goedgekeurd. Het betreft een reeks van elf internationale leidende beginselen die van toepassing zijn op alle AI-actoren en betrekking hebben op het ontwerp, de ontwikkeling, de inzet en het gebruik van geavanceerde AI-systemen.
- Passende maatregelen nemen tijdens de ontwikkeling van geavanceerde AI-systemen, inclusief vóór en tijdens de inzet en het op de markt brengen ervan, om risico's gedurende de hele AI-levenscyclus te identificeren, evalueren en beperken.
- Identificeer en verminder kwetsbaarheden, en, indien van toepassing, incidenten en patronen van misbruik, na implementatie, inclusief plaatsing op de markt.
- Maak publiekelijk melding van de mogelijkheden, beperkingen en domeinen van passend en ongepast gebruik van geavanceerde AI-systemen, om het waarborgen van voldoende transparantie te ondersteunen en zo bij te dragen aan het vergroten van de verantwoordingsplicht.
- Werken aan het verantwoord delen van informatie en het rapporteren van incidenten tussen organisaties die geavanceerde AI-systemen ontwikkelen, onder meer met de industrie, overheden, het maatschappelijk middenveld en de academische wereld.
- Ontwikkel, implementeer en openbaar beleid op het gebied van AI-governance en risicobeheer, gebaseerd op een risicogebaseerde aanpak – inclusief privacybeleid en risicobeperkende maatregelen, met name voor organisaties die geavanceerde AI-systemen ontwikkelen.
- Investeren in en implementeren van robuuste beveiligingscontroles, waaronder fysieke beveiliging, cyberbeveiliging en interne dreigingen gedurende de hele AI-levenscyclus.
- Ontwikkel en implementeer betrouwbare inhoud authenticatie en herkomstmechanismen, waar technisch haalbaar, zoals watermerken of andere technieken waarmee gebruikers door AI gegenereerde inhoud kunnen identificeren.
- Geef prioriteit aan onderzoek om maatschappelijke, veiligheids- en beveiligingsrisico's te beperken en geef prioriteit aan investeringen in effectieve mitigatiemaatregelen.
- Geef prioriteit aan de ontwikkeling van geavanceerde AI-systemen om de grootste uitdagingen van de wereld aan te pakken, met name maar niet beperkt tot de klimaatcrisis, de mondiale gezondheidszorg en het onderwijs.
- Bevorderen van de ontwikkeling van en, waar nodig, de adoptie van internationale technische normen.
- Implementeer passende maatregelen voor gegevensinvoer en bescherming van persoonlijke gegevens en intellectueel eigendom.
Deze principes hebben op hun beurt gediend als basis voor de creatie van een gedragscode voor AI-ontwikkelaars. Het naleven door bedrijven van deze principes is vrijwillig en zou logischerwijs moeten worden aangepast aan de specifieke kenmerken van elk rechtsgebied.
Laatste nieuws over het AI-proces van Hiroshima
- De industriële landen van de G7 zullen het eens worden over een gedragscode voor bedrijven die geavanceerde ontwikkelingslanden ontwikkelen kunstmatige intelligentie systemen. De 11-puntencode heeft tot doel veilige, beveiligde en betrouwbare AI wereldwijd te bevorderen. Het proces, geïnitieerd tijdens het ‘Hiroshima AI-proces’, heeft tot doel privacyproblemen en veiligheidsrisico’s aan te pakken. De code verplicht bedrijven om rapporten over AI-mogelijkheden, beperkingen en misbruik openbaar te maken.
- De Britse premier Rishi Sunak heeft ‘s werelds eerste AI Safety Institute aangekondigd, met als doel AI-modellen te evalueren en te testen om vooroordelen, verkeerde informatie en extreme bedreigingen aan te pakken. De top, gepland voor 1 en 2 november, zal AI-stakeholders en experts samenbrengen om een internationale consensus over AI-veiligheid tot stand te brengen. De voorzichtige houding van Groot-Brittannië ten aanzien van AI-regelgeving en de focus op innovatie zal worden benadrukt.
Laatste sociale berichten over het AI-proces van Hiroshima
«Terug naar woordenlijstindexDisclaimer
In lijn met de Richtlijnen voor vertrouwensprojectenHoud er rekening mee dat de informatie op deze pagina niet bedoeld is en niet mag worden geïnterpreteerd als juridisch, fiscaal, beleggings-, financieel of enige andere vorm van advies. Het is belangrijk om alleen te beleggen wat u zich kunt veroorloven te verliezen en onafhankelijk financieel advies in te winnen als u twijfels heeft. Voor meer informatie raden wij u aan de algemene voorwaarden en de hulp- en ondersteuningspagina's van de uitgever of adverteerder te raadplegen. MetaversePost streeft naar nauwkeurige, onpartijdige berichtgeving, maar de marktomstandigheden kunnen zonder voorafgaande kennisgeving worden gewijzigd.
Over de auteur
Viktoriia schrijft over verschillende technologische onderwerpen, waaronder Web3.0, AI en cryptocurrencies. Haar uitgebreide ervaring stelt haar in staat inzichtelijke artikelen te schrijven voor een breder publiek.
Meer artikelenViktoriia schrijft over verschillende technologische onderwerpen, waaronder Web3.0, AI en cryptocurrencies. Haar uitgebreide ervaring stelt haar in staat inzichtelijke artikelen te schrijven voor een breder publiek.