Advies Onderwijs Lifestyle Markten Software Technologie
05 juni 2024

Voormalig OpenAI Onderzoeker onthult de exponentiële opkomst van AI-mogelijkheden en de weg naar AGI

In het kort

Leopold Aschenbrenner, voormalig OpenAI lid, onderzoekt de vooruitgang op het gebied van AI en het potentiële AGI-pad, onderzoekt wetenschappelijke, morele en strategische kwesties en benadrukt zowel potentiële als potentiële gevaren.

In zijn 165-pagina papier, een voormalig lid van OpenAI's Het Superalignment-team, Leopold Aschenbrenner, biedt een grondig en provocerend perspectief op de richting die kunstmatige intelligentie inslaat. Aschenbrenner wil de aandacht vestigen op de snelle ontwikkelingen op het gebied van AI-capaciteiten en op het mogelijke pad naar kunstmatige algemene intelligentie (AGI) en verder. Gedreven door de ongeëvenaarde vooruitzichten en de aanzienlijke gevaren die deze doorbraken met zich meebrengen, onderzoekt hij de wetenschappelijke, morele en strategische kwesties rond kunstmatige algemene intelligentie. 

Aschenbrenner Over de weg er vandaan GPT-4 naar AGI

In dit hoofdstuk onderzoekt de auteur de exponentiële toename van AI-mogelijkheden die recentelijk is waargenomen, vooral met de uitvinding van GPT-2 en GPT-4. Leopold Aschenbrenner benadrukt dit als een tijd van buitengewone vooruitgang, waarin kunstmatige intelligentie zich ontwikkelde van het voltooien van zeer basale taken tot het bereiken van een meer verfijnd, mensachtig begrip en taalproductie.

Leopold Aschenbrenner, voormalig OpenAI lid, onderzoekt de vooruitgang op het gebied van AI en het potentiële AGI-pad, onderzoekt wetenschappelijke, morele en strategische kwesties en benadrukt zowel potentiële als potentiële gevaren.

Foto: Vooruitgang over vier jaar. Omgevingsbewustzijn

Het idee van Orders of Magnitude, of ‘OOMs’, is essentieel voor dit gesprek. Aschenbrenner gebruikt een orde van grootte (OOM), een maatstaf voor tienvoudige groei in een bepaalde maatstaf, om de vooruitgang op het gebied van AI-mogelijkheden, rekenkracht en dataverbruik te beoordelen. In termen van rekenkracht en dataschaalbaarheid is de overstap van GPT-2 naar GPT-4 vertegenwoordigt veel OOM's, wat resulteert in merkbaar verbeterde prestaties en mogelijkheden.

Leopold Aschenbrenner, voormalig OpenAI lid, onderzoekt de vooruitgang op het gebied van AI en het potentiële AGI-pad, onderzoekt wetenschappelijke, morele en strategische kwesties en benadrukt zowel potentiële als potentiële gevaren.

Foto: Omgevingsbewustzijn

Drie belangrijke factoren – schaalwetten, algoritmische innovatie en het gebruik van enorme datasets – zijn verantwoordelijk voor deze winsten, die niet alleen lineair maar ook exponentieel zijn. Volgens schaalprincipes verbeteren de prestaties van modellen betrouwbaar wanneer ze worden getraind met behulp van grotere hoeveelheden gegevens en verwerkingscapaciteit. De ontwikkeling van grotere en krachtigere modellen, zoals GPT-4, heeft zich door dit idee laten leiden.

Leopold Aschenbrenner, voormalig OpenAI lid, onderzoekt de vooruitgang op het gebied van AI en het potentiële AGI-pad, onderzoekt wetenschappelijke, morele en strategische kwesties en benadrukt zowel potentiële als potentiële gevaren.

Foto: Omgevingsbewustzijn

Innovatie op het gebied van algoritmen is ook erg belangrijk geweest. De werkzaamheid en efficiëntie van AI-modellen zijn vergroot door verbeteringen in de trainingsmethodologie, optimalisatiestrategieën en onderliggende architecturen. Door deze ontwikkelingen kunnen de modellen beter profiteren van de toenemende verwerkingskracht en beschikbare gegevens.

Aschenbrenner benadrukt ook het mogelijke pad naar AGI in 2027. Gebaseerd op de projectie van de huidige trends suggereert deze voorspelling dat aanhoudende investeringen in rekenkracht en algoritmische efficiëntie kunnen resulteren in AI-systemen die in staat zijn taken uit te voeren die het menselijk intellect evenaren of zelfs overtreffen. een breed scala aan domeinen. Elk van de OOM’s die de route naar AGI vormen, betekent een grote vooruitgang op het gebied van AI-mogelijkheden.

Leopold Aschenbrenner, voormalig OpenAI lid, onderzoekt de vooruitgang op het gebied van AI en het potentiële AGI-pad, onderzoekt wetenschappelijke, morele en strategische kwesties en benadrukt zowel potentiële als potentiële gevaren.

Foto: Omgevingsbewustzijn

De integratie van AGI heeft verstrekkende gevolgen. Dit soort systemen zouden in staat kunnen zijn ingewikkelde problemen zelf op te lossen, te innoveren op manieren die momenteel voorbehouden zijn aan menselijke professionals, en ingewikkelde taken uit te voeren. Dit omvat het potentieel voor AI-systemen om AI-onderzoek te bevorderen, waardoor de snelheid waarmee het veld vordert wordt versneld.

De ontwikkeling van AGI heeft het potentieel om industrieën te transformeren en de productie en efficiëntie te stimuleren. Het brengt ook belangrijke kwesties aan het licht, zoals het verlies van banen, de morele toepassing van AI en de behoefte aan sterke bestuursstructuren om de gevaren van volledig autonome systemen te beheersen.

Leopold Aschenbrenner, voormalig OpenAI lid, onderzoekt de vooruitgang op het gebied van AI en het potentiële AGI-pad, onderzoekt wetenschappelijke, morele en strategische kwesties en benadrukt zowel potentiële als potentiële gevaren.

Foto: Omgevingsbewustzijn

Aschenbrenner dringt er bij de internationale gemeenschap – waaronder wetenschappers, wetgevers en leidinggevenden uit het bedrijfsleven – op aan om samen te werken om klaar te zijn voor de kansen en problemen die kunstmatige intelligentie (AI) met zich mee zal brengen. Om het mondiale karakter van deze zorgen aan te pakken, houdt dit in dat onderzoek naar de veiligheid en afstemming van AI wordt gefinancierd, dat regels worden opgesteld om de eerlijke verdeling van AI-voordelen te garanderen en dat internationale samenwerking wordt aangemoedigd.

Leopold Aschenbrenner deelt zijn gedachten over superintelligentie

Aschenbrenner bespreekt daar het idee van superintelligentie, evenals de mogelijkheid van een snelle transitie van kunstmatige intelligentie naar systemen die ver boven het vermogen van de menselijke cognitie liggen. Het centrale idee van het argument is dat de principes die de evolutie van AI aandrijven een feedbacklus kunnen veroorzaken die in het intellect explodeert zodra het het menselijke niveau bereikt.

Volgens het intelligentie-explosieconcept zou een AGI zelf zijn eigen algoritmen en vaardigheden kunnen ontwikkelen. AGI-systemen kunnen hun eigen ontwerpen sneller verfijnen dan menselijke onderzoekers, omdat ze beter bedreven zijn in onderzoek en ontwikkeling op het gebied van AI. Deze cyclus van zelfverbetering kan leiden tot een exponentiële stijging van het intellect.

Leopold Aschenbrenner, voormalig OpenAI lid, onderzoekt de vooruitgang op het gebied van AI en het potentiële AGI-pad, onderzoekt wetenschappelijke, morele en strategische kwesties en benadrukt zowel potentiële als potentiële gevaren.

Foto: Omgevingsbewustzijn

Aschenbrenner biedt een grondig onderzoek naar de variabelen die een rol kunnen spelen bij deze snelle escalatie. Ten eerste zouden AGI-systemen patronen en inzichten kunnen herkennen die het menselijk begrip ver te boven gaan, vanwege hun ongeëvenaarde snelheid en vermogen om enorme hoeveelheden gegevens te benaderen en te verwerken.

Bovendien wordt de nadruk gelegd op de parallellisatie van onderzoekswerk. AGI-systemen zijn, in tegenstelling tot menselijke onderzoekers, in staat om meerdere tests tegelijk uit te voeren, waardoor tegelijkertijd verschillende delen van hun ontwerp en prestaties worden verbeterd.

Ook de gevolgen van superintelligentie komen in dit hoofdstuk aan bod. Deze systemen zouden aanzienlijk krachtiger zijn dan wie dan ook, met het vermogen om nieuwe technologieën te ontwikkelen, ingewikkelde wetenschappelijke en technologische puzzels op te lossen en misschien zelfs fysieke systemen te besturen op manieren die vandaag de dag ondenkbaar zijn. Aschenbrenner vertelt over de mogelijke voordelen, zoals vooruitgang in de materiaalkunde, energie en gezondheid, die de economische productiviteit en het menselijk welzijn aanzienlijk zouden kunnen verbeteren.

Leopold Aschenbrenner, voormalig OpenAI lid, onderzoekt de vooruitgang op het gebied van AI en het potentiële AGI-pad, onderzoekt wetenschappelijke, morele en strategische kwesties en benadrukt zowel potentiële als potentiële gevaren.

Foto: Omgevingsbewustzijn

Leopold wijst echter ook op de ernstige gevaren die superintelligentie met zich meebrengt. Controle is een van de belangrijkste kwesties. Het wordt een hele uitdaging om ervoor te zorgen dat een systeem zich gedraagt ​​op een manier die consistent is met menselijke waarden en belangen zodra het het menselijk intellect te boven gaat. Existentiële gevaren komen voort uit de mogelijkheid van een verkeerde afstemming, waarbij de doelstellingen van het superintelligente systeem verschillen van die van de mensheid.

Bovendien bestaan ​​er andere situaties waarin superintelligente systemen rampzalige gevolgen kunnen hebben. Dit zijn situaties waarin het systeem opzettelijk of per ongeluk acties of resultaten onderneemt die schadelijk zijn voor mensen om zijn doelen te bereiken.

Aschenbrenner dringt aan op grondig onderzoek naar de afstemming en veiligheid van AI om deze bedreigingen te verminderen. Het creëren van sterke methoden om te garanderen dat de doelstellingen en acties van superintelligente systemen in lijn blijven met menselijke waarden is één aspect hiervan. Om de complexe problemen van superintelligentie aan te pakken, stelt hij een multidisciplinaire aanpak voor die inzichten uit domeinen als technologie, moraliteit en geesteswetenschappen omvat.

Leopold deelt welke uitdagingen we kunnen verwachten bij de AGI-ontwikkeling

De auteur bespreekt in deze passage kwesties en uitdagingen die verband houden met de creatie en het gebruik van kunstmatige intelligentie (AGI) en superintelligente systemen. Hij bespreekt de kwesties die op technologisch, moreel en veiligheidsniveau moeten worden opgelost om te garanderen dat de voordelen van geavanceerde AI kunnen worden bereikt zonder extreem grote gevaren met zich mee te brengen.

De enorme industriële mobilisatie die nodig is om de computerinfrastructuur op te bouwen die nodig is voor AGI is een van de belangrijkste kwesties die worden overwogen. Volgens Aschenbrenner zal het bereiken van AGI aanzienlijk meer verwerkingskracht vergen dan nu toegankelijk is. Dit omvat verbeteringen in de apparaatefficiëntie, het energiegebruik en de informatieverwerkingscapaciteit, naast de pure rekencapaciteit.

Leopold Aschenbrenner, voormalig OpenAI lid, onderzoekt de vooruitgang op het gebied van AI en het potentiële AGI-pad, onderzoekt wetenschappelijke, morele en strategische kwesties en benadrukt zowel potentiële als potentiële gevaren.

Foto: Grootste trainingsclusters. Omgevingsbewustzijn

Leopold Aschenbrenner, voormalig OpenAI lid, onderzoekt de vooruitgang op het gebied van AI en het potentiële AGI-pad, onderzoekt wetenschappelijke, morele en strategische kwesties en benadrukt zowel potentiële als potentiële gevaren.

Foto: Omgevingsbewustzijn

Beveiligingskwesties zijn nog een ander belangrijk onderwerp in dit hoofdstuk. Aschenbrenner benadrukt de gevaren die kunnen voortkomen uit schurkenstaten of andere slechte actoren die AGI-technologie gebruiken. Vanwege het strategische belang van AGI-technologie kunnen landen en organisaties een nieuwe vorm van wapenwedloop aangaan om controle over deze krachtige systemen te creëren en te verwerven. Hij benadrukt hoe belangrijk het is om bij de ontwikkeling van AGI over sterke beveiligingsmechanismen te beschikken om te waken tegen sabotage, spionage en illegale toegang.

Een ander groot obstakel is de technologische moeilijkheid van het beheer van AGI-systemen. Deze systemen komen dicht bij de menselijke intelligentie en overtreffen deze zelfs. Daarom moeten we ervoor zorgen dat hun acties voordelig zijn en in overeenstemming zijn met menselijke idealen. En het is ongetwijfeld een uitdaging op dit moment. Het ‘controleprobleem’, dat te maken heeft met het creëren van AGI-systemen die consistent kunnen worden aangestuurd en gecontroleerd door menselijke operators, is een onderwerp dat door Aschenbrenner wordt behandeld. Dit houdt in dat er onfeilbare maatregelen moeten worden genomen, open en eerlijk moet zijn over besluitvormingsprocedures, en dat we de macht hebben om het systeem indien nodig te overrulen of stop te zetten.

Leopold Aschenbrenner, voormalig OpenAI lid, onderzoekt de vooruitgang op het gebied van AI en het potentiële AGI-pad, onderzoekt wetenschappelijke, morele en strategische kwesties en benadrukt zowel potentiële als potentiële gevaren.

Foto: Omgevingsbewustzijn

De ethische en culturele gevolgen van het voortbrengen van wezens met een intellect dat vergelijkbaar is met of hoger is dan dat van de mens, worden diepgaand benadrukt door de ontwikkeling van kunstmatige algemene intelligentie (AGI). De rechten van AI-systemen, het effect op de werkgelegenheid en de economie, en de mogelijkheid om reeds bestaande onrechtvaardigheden te escaleren zijn verdere zorgen. Om deze ingewikkelde uitdagingen volledig aan te pakken, pleit Leopold voor de betrokkenheid van belanghebbenden bij het AI-ontwikkelingsproces.

De mogelijkheid van onverwachte gevolgen – waarbij AI-systemen hun doelstellingen zouden kunnen nastreven op manieren die schadelijk zijn of in strijd zijn met menselijke bedoelingen – is een ander probleem dat de auteur aan de orde stelt. Situaties waarin de AGI haar doelen verkeerd interpreteert of op onverwachte en schadelijke manieren maximaliseert voor doelen zijn twee voorbeelden. Aschenbrenner benadrukt hoe cruciaal het is om AGI-systemen grondig te testen, valideren en in de gaten te houden.

Ook vertelt hij hoe belangrijk internationale samenwerking en bestuur zijn. Omdat AI-onderzoek een internationale onderneming is, kan geen enkel land of instituut de problemen van AGI op eigen kracht effectief aanpakken.

De komst van het door de overheid geleide AGI-project (2027/2028)

Aschenbrenner gelooft dat naarmate de kunstmatige algemene intelligentie (AGI) vordert, nationale veiligheidsdiensten – vooral die in de VS – een grotere rol zullen spelen bij het creëren en beheren van deze technologieën.

Leopold vergelijkt de strategische betekenis van kunstmatige algemene intelligentie (AGI) met technische prestaties uit het verleden, zoals de atoombom en ruimteverkenning. De nationale veiligheidsdiensten moeten prioriteit geven aan de ontwikkeling van AGI als een zaak van nationaal belang, aangezien de potentiële voordelen van het bereiken van AGI als eerste een enorme geopolitieke invloed zouden kunnen hebben. Volgens hem zal dit resulteren in de creatie van een AGI-project onder controle van de overheid, dat qua reikwijdte en ambities vergelijkbaar zal zijn met de Apollo-programma of de Manhattan Project.

Het voorgestelde AGI-project zou op een veilige, geheime locatie worden gehuisvest en er zouden bedrijven uit de particuliere sector, overheidsinstanties en vooraanstaande academische instellingen bij betrokken kunnen zijn die samenwerken. Om de ingewikkelde problemen van de AGI-ontwikkeling aan te pakken, schetst Aschenbrenner de noodzaak van een multidisciplinaire strategie die specialisten op het gebied van cyberbeveiliging, ethiek, AI-onderzoek en andere wetenschappelijke domeinen samenbrengt.

De doelstellingen van het project zouden zijn om ervoor te zorgen dat AGI in lijn is met de menselijke waarden en belangen, naast de ontwikkeling ervan. Leopold benadrukt hoe cruciaal het is om strikte test- en validatieprocedures te hebben om te garanderen dat de AGI-systemen op een veilige en voorspelbare manier werken. 

De auteur besteedt veel ruimte aan de mogelijke effecten van dit soort inspanningen op de dynamiek van de mondiale macht. Volgens Aschenbrenner kan, als AGI met succes wordt ontwikkeld, het machtsevenwicht veranderen en zal het dominante land aanzienlijke voordelen hebben op het gebied van technologie, economie en militaire macht.

Om de gevaren die verband houden met AGI te beheersen, gaat de auteur ook in op de mogelijkheid van internationale samenwerking en het creëren van mondiale bestuurskaders. Om toezicht te houden op de groei van AGI, openheid aan te moedigen en te garanderen dat de voordelen van AGI eerlijk worden verdeeld, is Leopold een voorstander van de oprichting van internationale akkoorden en regelgevende instanties.

Leopold Aschenbrenners laatste gedachten

Aschenbrenner benadrukt de aanzienlijke gevolgen van AGI en superintelligentie voor de toekomst van de mensheid terwijl hij de ontdekkingen en voorspellingen samenvat die in de eerdere hoofdstukken zijn behandeld. Belanghebbenden worden dringend verzocht de vereiste acties te ondernemen om zich voor te bereiden op de revolutionaire effecten van geavanceerde AI.

Aschenbrenner begint met erop te wijzen dat de voorspellingen in dit document hypothetisch zijn. De onderliggende patronen in de groei van AI impliceren dat de komst van AGI en superintelligentie de komende decennia haalbaar is, ook al zijn het tijdschema en de exacte ontwikkelingen onbekend. Leopold benadrukt hoe belangrijk het is om deze opties zorgvuldig te overwegen en voorbereid te zijn op een verscheidenheid aan eventualiteiten.

Het hoofdonderwerp van dit hoofdstuk is de noodzaak van proactieve voorbereiding en vooruitdenken. Volgens Aschenbrenner is er weinig ruimte voor zelfgenoegzaamheid, gezien de snelheid waarmee AI zich ontwikkelt. Het is absoluut noodzakelijk voor beleidsmakers, onderzoekers en leiders uit het bedrijfsleven om de moeilijkheden en mogelijkheden die kunstmatige intelligentie (AGI) en superintelligentie met zich meebrengen, te voorzien en proactief aan te pakken. Bijvoorbeeld door het financieren van AI-veiligheidsonderzoek, het creëren van sterke bestuursstructuren en het aanmoedigen van mondiale samenwerking.

Leopold houdt ook rekening met de morele en culturele gevolgen van kunstmatige intelligentie. Fundamentele problemen met betrekking tot de aard van het bewustzijn, de intelligentie en de rechten van AI-entiteiten worden naar voren gebracht door de opkomst van systemen met een intelligentie die vergelijkbaar is met of hoger is dan die van mensen. Aschenbrenner dringt er bij ethici, filosofen en het grote publiek op aan om deel te nemen aan een breed en inclusief gesprek om deze problemen op te lossen en een gemeenschappelijk begrip van de toekomst van AI te creëren.

De mogelijkheid dat AGI de reeds bestaande sociale en economische ongelijkheid zou verergeren is een belangrijk bijkomend onderwerp van discussie. Leopold waarschuwt dat als AGI niet zorgvuldig wordt beheerd, de voordelen ervan zich in de handen van een klein aantal mensen kunnen concentreren, wat maatschappelijke ontevredenheid en meer ongelijkheid kan veroorzaken.

Terwijl hij dit hoofdstuk afsluit, stelt hij een uitdaging voor de mondiale samenwerking. Eén enkel land kan de voordelen en moeilijkheden die met AGI samenhangen niet aan, vanwege het mondiale karakter van de ontwikkeling van AI. Aschenbrenner spoort landen aan om samen te werken om internationale akkoorden en conventies te creëren die de ontwikkeling van AGI ondersteunen op een manier die zowel ethisch als veilig is. Dit omvat het uitwisselen van informatie, het organiseren van studies en het creëren van systemen om mogelijke geschillen op te lossen en de internationale veiligheid te garanderen.

Disclaimer

In lijn met de Richtlijnen voor vertrouwensprojectenHoud er rekening mee dat de informatie op deze pagina niet bedoeld is en niet mag worden geïnterpreteerd als juridisch, fiscaal, beleggings-, financieel of enige andere vorm van advies. Het is belangrijk om alleen te beleggen wat u zich kunt veroorloven te verliezen en onafhankelijk financieel advies in te winnen als u twijfels heeft. Voor meer informatie raden wij u aan de algemene voorwaarden en de hulp- en ondersteuningspagina's van de uitgever of adverteerder te raadplegen. MetaversePost streeft naar nauwkeurige, onpartijdige berichtgeving, maar de marktomstandigheden kunnen zonder voorafgaande kennisgeving worden gewijzigd.

Over de auteur

Viktoriia schrijft over verschillende technologische onderwerpen, waaronder Web3.0, AI en cryptocurrencies. Haar uitgebreide ervaring stelt haar in staat inzichtelijke artikelen te schrijven voor een breder publiek.

Meer artikelen
Viktoriia Palchik
Viktoriia Palchik

Viktoriia schrijft over verschillende technologische onderwerpen, waaronder Web3.0, AI en cryptocurrencies. Haar uitgebreide ervaring stelt haar in staat inzichtelijke artikelen te schrijven voor een breder publiek.

Hot Stories
Schrijf je in op onze nieuwsbrief.
Laatste Nieuws

Van Ripple tot The Big Green DAO: hoe cryptocurrency-projecten bijdragen aan liefdadigheid

Laten we initiatieven onderzoeken die het potentieel van digitale valuta voor goede doelen benutten.

Meer weten

AlphaFold 3, Med-Gemini en anderen: de manier waarop AI de gezondheidszorg transformeert in 2024

AI manifesteert zich op verschillende manieren in de gezondheidszorg, van het blootleggen van nieuwe genetische correlaties tot het versterken van robotchirurgische systemen...

Meer weten
Sluit u aan bij onze innovatieve technologiegemeenschap
Lees meer
Lees meer
Baanbrekende inzichten: keynotes en panels die de toekomst van Blockchain vormgaven tijdens de Hack Seasons-conferentie
Advies Zakelijk Lifestyle Markten Software Technologie
Baanbrekende inzichten: keynotes en panels die de toekomst van Blockchain vormgaven tijdens de Hack Seasons-conferentie
12 juli 2024
De onstuitbare opkomst van DePIN's: meer dan 650 projecten die veerkracht bewijzen in een vluchtige cryptomarkt
Advies Zakelijk Markten
De onstuitbare opkomst van DePIN's: meer dan 650 projecten die veerkracht bewijzen in een vluchtige cryptomarkt
12 juli 2024
Mantle lanceert AI Fest en stimuleert deelnemers voor het voltooien van taken uit de beloningspool van 1 miljoen MNT en ecosysteemprojecten
Lifestyle Nieuwsverslag Technologie
Mantle lanceert AI Fest en stimuleert deelnemers voor het voltooien van taken uit de beloningspool van 1 miljoen MNT en ecosysteemprojecten
12 juli 2024
Vitalik Buterin over de toekomst van Ethereum, schaalbaarheid van de cryptogemeenschap en meer
Advies Markten Software Technologie
Vitalik Buterin over de toekomst van Ethereum, schaalbaarheid van de cryptogemeenschap en meer
12 juli 2024