Nieuwsverslag Technologie
27 oktober 2023

AI-bedrijven zouden 30% van hun financiering moeten besteden aan onderzoek en ontwikkeling op het gebied van veiligheid en ethiek

De schade veroorzaakt door vooroordelen en valse informatie is nu al duidelijk. Er zijn aanwijzingen dat er zich ook andere gevaren kunnen voordoen. Het is van cruciaal belang om de huidige risico's te beperken en nieuwe risico's te voorzien.

AI-bedrijven zouden 30% van hun financiering moeten besteden aan onderzoek en ontwikkeling op het gebied van veiligheid en ethiek

We zouden niet weten hoe we ervoor kunnen zorgen dat geavanceerde autonome systemen of AGI veilig zijn of hoe we ze moeten testen als ze nu beschikbaar zouden zijn. Bovendien ontberen regeringen de instellingen die nodig zijn om misbruik te stoppen en veilige praktijken in te voeren, zelfs als ze dat wel zouden doen. De auteurs steunen de ontwikkeling van efficiënt overheidstoezicht en het heroriënteren van R&D-inspanningen in de richting van veiligheid en ethiek.

Controle en eerlijkheid (meer geavanceerde systemen kunnen het testen te slim af zijn door valse maar overtuigende antwoorden te geven), robuustheid (in nieuwe omstandigheden met distributieverschuivingen of vijandige input), interpreteerbaarheid (werk begrijpen), risicobeoordeling (er ontstaan ​​nieuwe vaardigheden die moeilijk te voorspellen zijn), en de opkomst van nieuwe uitdagingen (ongekende faalwijzen) zijn enkele van de O&O-uitdagingen die niet zullen worden opgelost door het ontwikkelen van krachtigere AI-systemen.

De auteurs suggereren dat veiligheid en ethiek minstens een derde van de financiering voor AI-R&D moeten ontvangen.

Er moeten normen worden afgedwongen met betrekking tot zowel de nationale instellingen als het mondiaal bestuur. AI mist deze, maar de farmaceutische, financiële en nucleaire industrie wel. Er zijn nu prikkels voor landen en bedrijven om te bezuinigen ten koste van de veiligheid. Bedrijven kunnen profiteren van de vooruitgang op het gebied van AI, terwijl de samenleving de gevolgen ervan moet dragen, net zoals industrieën afval in rivieren dumpen.

Sterke technische kennis en het vermogen om snel te handelen zijn vereisten voor nationale instellingen. Op mondiaal vlak zijn partnerschappen en overeenkomsten essentieel. Bureaucratische obstakels voor kleine en voorspelbare modellen moeten worden vermeden om academisch onderzoek en toepassingen met een laag risico veilig te stellen. Grensmodellen – een selecte groep van de krachtigste systemen die zijn getraind op supercomputers van miljarden dollars – zouden de meeste aandacht moeten krijgen.

Om de regelgeving effectief te laten zijn, moeten overheden opener zijn over de ontwikkelingen. Toezichthouders moeten de registratie van modellen verplicht stellen, interne informanten beschermen, het melden van incidenten verplicht stellen en de ontwikkeling van modellen en het gebruik van supercomputers in de gaten houden.

Regelgevers moeten ook toegang hebben tot deze systemen voordat ze in productie worden genomen, om ze te kunnen evalueren potentieel schadelijk functies zoals het genereren van pathogenen, zelfreplicatie en systeempenetratie.

Systemen die potentieel gevaarlijk kunnen zijn, hebben een verscheidenheid aan controlemethoden nodig. Grensmodel makers moeten ook juridisch aansprakelijk worden gesteld voor eventuele schade aan hun systemen die voorkomen had kunnen worden. Dit zou investeringen in veiligheid moeten stimuleren. Meer functies, zoals het verlenen van vergunningen door de overheid, het vermogen om de ontwikkeling te stoppen als reactie hierop mogelijk gevaarlijk capaciteiten, toegangscontroles en informatiebeveiligingsmaatregelen die ongevoelig zijn voor hackers op staatsniveau, kunnen vereist zijn voor uiterst capabele systemen.

Hoewel er geen regels zijn, moeten bedrijven snel hun ‘als-dan’-verantwoordelijkheden verduidelijken door de precieze stappen te schetsen die ze zullen nemen als bepaalde modelcapaciteiten een rode lijn overschrijden. Deze maatregelen moeten grondig worden uitgelegd en onafhankelijk worden bevestigd. Zo is het ook. Een aparte Beleidssupplement stelt een samenvatting van scripties samen.

  • In oktober vindt het Frontier Model Forum plaats heeft een AI-veiligheidsfonds van meer dan $ 10 miljoen geïntroduceerd, met als doel vooruitgang te boeken in het veiligheidsonderzoek op het gebied van AI. Het fonds, een samenwerking tussen het Frontier Model Forum en filantropische partners, zal ondersteuning bieden aan onafhankelijke onderzoekers over de hele wereld die verbonden zijn aan academische instellingen, onderzoeksorganisaties en startups. De belangrijkste bijdragers aan het initiatief zijn Anthropic, Google, Microsoft, OpenAI, samen met filantropische organisaties zoals de Patrick J. McGovern Foundation, de David and Lucile Packard Foundation, Eric Schmidt en Jaan Tallinn. Het AI Safety Fund richt zich primair op het versterken van de ontwikkeling van nieuwe evaluatietechnieken en red teaming-benaderingen voor AI-modellen, met als doel potentiële gevaren bloot te leggen. Het Forum is van plan de komende maanden een adviesraad op te richten en zal kort daarna zijn eerste oproep tot het indienen van voorstellen en toekenningen doen.
Verwant: UK Competition and Markets Authority lanceert herziening van AI-modellen naarmate de inspanningen van de overheid op het gebied van regelgeving escaleren

Disclaimer

In lijn met de Richtlijnen voor vertrouwensprojectenHoud er rekening mee dat de informatie op deze pagina niet bedoeld is en niet mag worden geïnterpreteerd als juridisch, fiscaal, beleggings-, financieel of enige andere vorm van advies. Het is belangrijk om alleen te beleggen wat u zich kunt veroorloven te verliezen en onafhankelijk financieel advies in te winnen als u twijfels heeft. Voor meer informatie raden wij u aan de algemene voorwaarden en de hulp- en ondersteuningspagina's van de uitgever of adverteerder te raadplegen. MetaversePost streeft naar nauwkeurige, onpartijdige berichtgeving, maar de marktomstandigheden kunnen zonder voorafgaande kennisgeving worden gewijzigd.

Over de auteur

Damir is de teamleider, productmanager en redacteur bij Metaverse Post, met onderwerpen als AI/ML, AGI, LLM's, Metaverse en Web3-gerelateerde velden. Zijn artikelen trekken maandelijks een enorm publiek van meer dan een miljoen gebruikers. Hij blijkt een expert te zijn met 10 jaar ervaring in SEO en digitale marketing. Damir is genoemd in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto en andere publicaties. Hij reist als digitale nomade tussen de VAE, Turkije, Rusland en het GOS. Damir behaalde een bachelordiploma in natuurkunde, wat hem volgens hem de kritische denkvaardigheden heeft gegeven die nodig zijn om succesvol te zijn in het steeds veranderende landschap van internet. 

Meer artikelen
Damir Jalalov
Damir Jalalov

Damir is de teamleider, productmanager en redacteur bij Metaverse Post, met onderwerpen als AI/ML, AGI, LLM's, Metaverse en Web3-gerelateerde velden. Zijn artikelen trekken maandelijks een enorm publiek van meer dan een miljoen gebruikers. Hij blijkt een expert te zijn met 10 jaar ervaring in SEO en digitale marketing. Damir is genoemd in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto en andere publicaties. Hij reist als digitale nomade tussen de VAE, Turkije, Rusland en het GOS. Damir behaalde een bachelordiploma in natuurkunde, wat hem volgens hem de kritische denkvaardigheden heeft gegeven die nodig zijn om succesvol te zijn in het steeds veranderende landschap van internet. 

De institutionele belangstelling groeit richting Bitcoin ETF’s te midden van volatiliteit

Uit openbaarmakingen via 13F-registraties blijkt dat opmerkelijke institutionele beleggers zich bezighouden met Bitcoin ETF's, wat een groeiende acceptatie onderstreept van ...

Meer weten

De dag van de veroordeling breekt aan: het lot van CZ hangt in evenwicht terwijl de Amerikaanse rechtbank het pleidooi van DOJ in overweging neemt

Changpeng Zhao staat vandaag op het punt te worden veroordeeld door een Amerikaanse rechtbank in Seattle.

Meer weten
Sluit u aan bij onze innovatieve technologiegemeenschap
Lees meer
Lees meer
Espresso Systems werkt samen met Polygon Labs om AggLayer te ontwikkelen voor het verbeteren van de rollup-interoperabiliteit
Business Nieuwsverslag Technologie
Espresso Systems werkt samen met Polygon Labs om AggLayer te ontwikkelen voor het verbeteren van de rollup-interoperabiliteit
9 mei 2024
Door ZKP aangedreven infrastructuurprotocol ZKBase onthult routekaart en plannen Testnet wordt in mei gelanceerd
Nieuwsverslag Technologie
Door ZKP aangedreven infrastructuurprotocol ZKBase onthult routekaart en plannen Testnet wordt in mei gelanceerd
9 mei 2024
BLOCKCHANCE en CONF3RENCE verenigen zich voor de grootste van Duitsland Web3 Conferentie in Dortmund
Business Markten Software Verhalen en recensies Technologie
BLOCKCHANCE en CONF3RENCE verenigen zich voor de grootste van Duitsland Web3 Conferentie in Dortmund
9 mei 2024
NuLink wordt gelanceerd op Bybit Web3 IDO-platform. Abonnementsfase wordt verlengd tot 13 mei
Markten Nieuwsverslag Technologie
NuLink wordt gelanceerd op Bybit Web3 IDO-platform. Abonnementsfase wordt verlengd tot 13 mei
9 mei 2024