OpenAI: AI zou mensen in potentie veel schade kunnen berokkenen, maar vooruitgang proberen te stoppen is geen optie
In het kort
OpenAIHet document 'Planning for AGI and Beyond' suggereert een geleidelijke, langzame introductie van complexere en 'slimme' modellen, het organiseren van onafhankelijke audits van grote systemen en het beperken van computerbronnen.
OpenAI wil dat AI voor iedereen in gelijke mate openstaat en consistenter en betrouwbaarder wordt beheersbare modellen vooroordelen en ongewenst gedrag te verminderen.
OpenAI heeft onlangs een document gepubliceerd met de titel ‘Planning for AGI and Beyond’. Het schetst de brede ideeën die de acties van het bedrijf leiden naarmate de wereld dichter bij de ontwikkeling van AGI (kunstmatige algemene intelligentie) komt.
OpenAI with is van mening dat hoewel AI het potentieel heeft om aanzienlijke schade aan mensen toe te brengen, het proberen om de vooruitgang tegen te houden geen optie is. Als gevolg hiervan moeten we leren hoe we deze verbetering kunnen handhaven, zodat deze niet aanzienlijk verslechtert.
Het document is te vinden hier. Laten we er een paar cruciale elementen uit uitlichten:
- OpenAI wil dat AGI mensen helpt gedijen in alle aspecten van hun leven, zowel economisch als wetenschappelijk.
In plaats van supercoole grote AI te creëren en deze onmiddellijk in de wereld vrij te geven, OpenAI geleidelijk meer gecompliceerde en ‘slimme’ modellen zullen introduceren. De veronderstelling is dat de geleidelijk toenemende AI-capaciteiten de wereld niet zullen choqueren, waardoor mensen de tijd krijgen om zich aan te passen, de economie aan te passen en procedures op te bouwen voor interactie met AI. - OpenAI nodigt alle organisaties uit om het bovengenoemde principe formeel over te nemen (het geleidelijk uitrollen van krachtige AI). Altman beveelt ook aan om de hoeveelheid computerbronnen die kunnen worden gebruikt om modellen te trainen te beperken en onpartijdige audits van grote systemen op te zetten voordat deze beschikbaar worden gemaakt voor het grote publiek. In plaats van deel te nemen aan wedstrijden als “wie zal de eerste zijn die een cooler en groter model uitrolt?” OpenAI vraagt bedrijven dat samenwerken om de veiligheid van AI te verbeteren.
- OpenAI vindt het van cruciaal belang dat overheden worden geïnformeerd over trainingssessies die een bepaalde omvang overschrijden. Dit is een intrigerend concept en we willen er graag meer over weten plannen OpenAI heeft in dit verband. Dit voorstel lijkt me in eerste instantie niet zo geweldig.
- OpenAI zal proberen modellen te ontwikkelen die betrouwbaarder en controleerbaarder zijn, waardoor de kans groot is dat vooringenomenheid en ongunstig gedrag bij AI worden beperkt. De aanpak van OpenAI in dit geval is het de bedoeling om het model in een zeer beperkte vorm beschikbaar te maken voor het grote publiek, terwijl gebruikers ook de mogelijkheid krijgen om het te personaliseren. Omdat consumenten daar niets kunnen 'personaliseren', weet ik niet zeker hoe dit het model als geheel minder bevooroordeeld zal maken. Tenzij het de firma ontslaat van aansprakelijkheid voor de daden van het model.
Over het algemeen wijst het document in de goede richting. Er was echter een klein conflict tussen "we zullen niet meteen coole modellen aan het publiek laten zien, maar we zullen erover praten met staten" en “Mensen zouden het moeten weten over de vooruitgang van AI.” Kortom, we wachten op gedetailleerde verduidelijkingen van OpenAI over alle onderwerpen.
Lees meer over AI:
Disclaimer
In lijn met de Richtlijnen voor vertrouwensprojectenHoud er rekening mee dat de informatie op deze pagina niet bedoeld is en niet mag worden geïnterpreteerd als juridisch, fiscaal, beleggings-, financieel of enige andere vorm van advies. Het is belangrijk om alleen te beleggen wat u zich kunt veroorloven te verliezen en onafhankelijk financieel advies in te winnen als u twijfels heeft. Voor meer informatie raden wij u aan de algemene voorwaarden en de hulp- en ondersteuningspagina's van de uitgever of adverteerder te raadplegen. MetaversePost streeft naar nauwkeurige, onpartijdige berichtgeving, maar de marktomstandigheden kunnen zonder voorafgaande kennisgeving worden gewijzigd.
Over de auteur
Damir is de teamleider, productmanager en redacteur bij Metaverse Post, met onderwerpen als AI/ML, AGI, LLM's, Metaverse en Web3-gerelateerde velden. Zijn artikelen trekken maandelijks een enorm publiek van meer dan een miljoen gebruikers. Hij blijkt een expert te zijn met 10 jaar ervaring in SEO en digitale marketing. Damir is genoemd in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto en andere publicaties. Hij reist als digitale nomade tussen de VAE, Turkije, Rusland en het GOS. Damir behaalde een bachelordiploma in natuurkunde, wat hem volgens hem de kritische denkvaardigheden heeft gegeven die nodig zijn om succesvol te zijn in het steeds veranderende landschap van internet.
Meer artikelenDamir is de teamleider, productmanager en redacteur bij Metaverse Post, met onderwerpen als AI/ML, AGI, LLM's, Metaverse en Web3-gerelateerde velden. Zijn artikelen trekken maandelijks een enorm publiek van meer dan een miljoen gebruikers. Hij blijkt een expert te zijn met 10 jaar ervaring in SEO en digitale marketing. Damir is genoemd in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto en andere publicaties. Hij reist als digitale nomade tussen de VAE, Turkije, Rusland en het GOS. Damir behaalde een bachelordiploma in natuurkunde, wat hem volgens hem de kritische denkvaardigheden heeft gegeven die nodig zijn om succesvol te zijn in het steeds veranderende landschap van internet.