Opinion Éducation Lifestyle Marchés Software Technologie
Le 05 juin 2024

Ancien OpenAI Un chercheur dévoile l'augmentation exponentielle des capacités de l'IA et la voie vers l'AGI

En bref

Léopold Aschenbrenner, ancien OpenAI membre, explore les progrès de l'IA et la voie potentielle de l'AGI, en examinant les questions scientifiques, morales et stratégiques, en mettant en évidence à la fois les dangers potentiels et potentiels.

Dans son 165-page papier, ancien membre de OpenAI's L'équipe de Superalignment, Leopold Aschenbrenner, offre une perspective approfondie et provocatrice sur la direction que prend l'intelligence artificielle. Aschenbrenner cherche à attirer l'attention sur les développements rapides des capacités de l'IA ainsi que sur la voie possible vers l'intelligence générale artificielle (AGI) et au-delà. Poussé par les perspectives sans précédent ainsi que les risques importants que ces avancées apportent, il enquête sur les enjeux scientifiques, moraux et stratégiques entourant l’intelligence artificielle générale. 

Aschenbrenner À propos du chemin de GPT-4 à l'AGI

Dans ce chapitre, l’auteur explore l’augmentation exponentielle des capacités de l’IA observée récemment, notamment avec l’invention de GPT-2 et GPT-4. Leopold Aschenbrenner souligne qu'il s'agit d'une époque de progrès extraordinaires, au cours de laquelle l'intelligence artificielle est passée de l'accomplissement de tâches très élémentaires à une compréhension et une production linguistique plus sophistiquées, semblables à celles des humains.

Léopold Aschenbrenner, ancien OpenAI membre, explore les progrès de l'IA et la voie potentielle de l'AGI, en examinant les questions scientifiques, morales et stratégiques, en mettant en évidence à la fois les dangers potentiels et potentiels.

Photo : Progrès sur quatre ans. Connaissance de la situation

L’idée des ordres de grandeur, ou « MOO », est essentielle à cette conversation. Aschenbrenner utilise un ordre de grandeur (OOM), qui est une mesure d'une croissance décuplée dans une mesure donnée, pour évaluer les progrès en matière de capacités d'IA, de puissance de calcul et de consommation de données. En termes de puissance de calcul et d'évolutivité des données, le passage de GPT-2 à GPT-4 représente de nombreux MOO, ce qui entraîne des performances et des capacités sensiblement améliorées.

Léopold Aschenbrenner, ancien OpenAI membre, explore les progrès de l'IA et la voie potentielle de l'AGI, en examinant les questions scientifiques, morales et stratégiques, en mettant en évidence à la fois les dangers potentiels et potentiels.

Photo Connaissance de la situation

Trois facteurs principaux – les lois d’échelle, l’innovation algorithmique et l’utilisation d’énormes ensembles de données – sont responsables de ces gains, qui ne sont pas seulement linéaires mais exponentiels. Selon les principes de mise à l'échelle, les performances des modèles s'améliorent de manière fiable lorsqu'ils sont formés en utilisant de plus grandes quantités de données et une plus grande capacité de traitement. Le développement de modèles plus grands et plus puissants, comme GPT-4, a été guidé par cette idée.

Léopold Aschenbrenner, ancien OpenAI membre, explore les progrès de l'IA et la voie potentielle de l'AGI, en examinant les questions scientifiques, morales et stratégiques, en mettant en évidence à la fois les dangers potentiels et potentiels.

Photo Connaissance de la situation

L’innovation dans les algorithmes a également été très importante. L'efficacité et l'efficience des modèles d'IA ont été renforcées par les progrès de la méthodologie de formation, des stratégies d'optimisation et des architectures sous-jacentes. Ces développements permettent aux modèles de mieux tirer parti de la puissance de traitement croissante et des données disponibles.

Aschenbrenner met également en évidence la voie possible vers l'AGI d'ici 2027. Sur la base de la projection des tendances actuelles, cette prédiction suggère que des investissements soutenus dans la puissance de calcul et l'efficacité algorithmique pourraient aboutir à des systèmes d'IA capables d'effectuer des tâches qui correspondent ou dépassent l'intellect humain dans un large éventail de domaines. Chacun des MOO qui constituent le chemin vers l’AGI signifie une avancée majeure dans les capacités de l’IA.

Léopold Aschenbrenner, ancien OpenAI membre, explore les progrès de l'IA et la voie potentielle de l'AGI, en examinant les questions scientifiques, morales et stratégiques, en mettant en évidence à la fois les dangers potentiels et potentiels.

Photo Connaissance de la situation

L’intégration d’AGI a des conséquences considérables. Ces types de systèmes pourraient être capables de résoudre eux-mêmes des problèmes complexes, d’innover d’une manière actuellement réservée aux professionnels humains et d’effectuer des tâches complexes. Cela implique le potentiel des systèmes d’IA pour faire avancer la recherche sur l’IA, accélérant ainsi le rythme de progression du domaine.

Le développement d'AGI a le potentiel de transformer les industries et de stimuler la production et l'efficacité. Cela soulève également des questions importantes telles que la perte d’emplois, l’application morale de l’IA et la nécessité de structures de gouvernance solides pour contrôler les dangers posés par les systèmes entièrement autonomes.

Léopold Aschenbrenner, ancien OpenAI membre, explore les progrès de l'IA et la voie potentielle de l'AGI, en examinant les questions scientifiques, morales et stratégiques, en mettant en évidence à la fois les dangers potentiels et potentiels.

Photo Connaissance de la situation

Aschenbrenner exhorte la communauté internationale – qui comprend des universitaires, des législateurs et des dirigeants d’entreprises – à travailler ensemble afin de se préparer aux opportunités et aux problèmes que l’intelligence artificielle (IA) apportera. Afin de répondre au caractère mondial de ces préoccupations, cela implique de financer des recherches sur la sécurité et l’alignement de l’IA, de créer des règles garantissant le partage équitable des avantages de l’IA et d’encourager la coopération internationale.

Leopold Aschenbrenner partage ses réflexions sur la superintelligence

Aschenbrenner y discute de l'idée de superintelligence, ainsi que de la possibilité d'une transition rapide de l'intelligence artificielle vers des systèmes bien supérieurs à la capacité de la cognition humaine. L’idée centrale de l’argument est que les principes qui guident l’évolution de l’IA peuvent produire une boucle de rétroaction qui explose dans l’intellect une fois qu’elle atteint le niveau humain.

Selon le concept d’explosion du renseignement, une AGI pourrait développer elle-même ses propres algorithmes et compétences. Les systèmes AGI peuvent affiner leurs propres conceptions plus rapidement que les chercheurs humains, car ils sont plus compétents en recherche et développement en IA. Ce cycle d’auto-amélioration peut conduire à une augmentation exponentielle de l’intellect.

Léopold Aschenbrenner, ancien OpenAI membre, explore les progrès de l'IA et la voie potentielle de l'AGI, en examinant les questions scientifiques, morales et stratégiques, en mettant en évidence à la fois les dangers potentiels et potentiels.

Photo Connaissance de la situation

Aschenbrenner propose un examen approfondi des variables qui pourraient être impliquées dans cette escalade rapide. Premièrement, les systèmes AGI seraient capables de reconnaître des modèles et des informations bien au-delà de la compréhension humaine en raison de leur vitesse et de leur capacité inégalées à accéder et à traiter des volumes massifs de données.

Par ailleurs, l'accent est mis sur la parallélisation des travaux de recherche. Les systèmes AGI, contrairement aux chercheurs humains, sont capables d'effectuer plusieurs tests à la fois, améliorant parallèlement différentes parties de leur conception et de leurs performances.

Les conséquences de la superintelligence sont également abordées dans ce chapitre. Ces systèmes seraient bien plus puissants que n’importe qui, avec la capacité de développer de nouvelles technologies, de résoudre des énigmes scientifiques et technologiques complexes et peut-être même de gouverner des systèmes physiques d’une manière impensable aujourd’hui. Aschenbrenner parle des avantages possibles, tels que les progrès dans la science des matériaux, l'énergie et la santé, qui pourraient améliorer considérablement la productivité économique et le bien-être humain.

Léopold Aschenbrenner, ancien OpenAI membre, explore les progrès de l'IA et la voie potentielle de l'AGI, en examinant les questions scientifiques, morales et stratégiques, en mettant en évidence à la fois les dangers potentiels et potentiels.

Photo Connaissance de la situation

Cependant, Léopold souligne également les graves dangers liés à la superintelligence. Le contrôle fait partie des principaux enjeux. Il devient très difficile de s’assurer qu’un système se comporte d’une manière conforme aux valeurs et aux intérêts humains une fois qu’il dépasse l’intellect humain. Les risques existentiels découlent de la possibilité d'un désalignement, dans lequel les objectifs du système superintelligent diffèrent de ceux de l'humanité.

De plus, il existe d’autres situations dans lesquelles les systèmes superintelligents pourraient avoir des conséquences désastreuses. Il s’agit de situations dans lesquelles le système prend, intentionnellement ou accidentellement, des actions ou des résultats préjudiciables aux personnes afin d’atteindre ses objectifs.

Aschenbrenner recommande une étude approfondie sur l'alignement et la sécurité de l'IA afin de réduire ces menaces. Créer des méthodes solides pour garantir que les objectifs et les actions des systèmes superintelligents restent conformes aux valeurs humaines en est un aspect. Afin de traiter les problèmes complexes posés par la superintelligence, il propose une approche multidisciplinaire qui intègre des connaissances issues de domaines tels que la technologie, la moralité et les sciences humaines.

Léopold partage les défis auxquels nous devrions nous attendre avec le développement d'AGI

L'auteur aborde dans ce passage les problèmes et les défis liés à la création et à l'utilisation de l'intelligence artificielle (AGI) et des systèmes superintelligents. Il discute des problèmes qui doivent être résolus au niveau technologique, moral et sécuritaire afin de garantir que les avantages d’une IA sophistiquée puissent être obtenus sans comporter de dangers extrêmement élevés.

La mobilisation industrielle massive nécessaire à la construction de l’infrastructure informatique nécessaire à l’AGI est l’un des principaux enjeux pris en compte. Selon Aschenbrenner, atteindre l’AGI nécessitera beaucoup plus de puissance de traitement que celle actuellement accessible. Cela couvre les améliorations de l’efficacité des appareils, de l’utilisation de l’énergie et des capacités de traitement de l’information en plus de la simple capacité de calcul.

Léopold Aschenbrenner, ancien OpenAI membre, explore les progrès de l'IA et la voie potentielle de l'AGI, en examinant les questions scientifiques, morales et stratégiques, en mettant en évidence à la fois les dangers potentiels et potentiels.

Photo : Les plus grands pôles de formation. Connaissance de la situation

Léopold Aschenbrenner, ancien OpenAI membre, explore les progrès de l'IA et la voie potentielle de l'AGI, en examinant les questions scientifiques, morales et stratégiques, en mettant en évidence à la fois les dangers potentiels et potentiels.

Photo Connaissance de la situation

Les questions de sécurité sont encore un autre sujet important de ce chapitre. Aschenbrenner souligne les dangers qui pourraient découler des nations voyous ou d'autres mauvais acteurs utilisant la technologie AGI. En raison de l’importance stratégique de la technologie AGI, les pays et les organisations pourraient s’engager dans une nouvelle forme de course aux armements pour créer et prendre le contrôle de ces puissants systèmes. Il souligne à quel point il est important de disposer de mécanismes de sécurité solides pour se prémunir contre le sabotage, l'espionnage et l'accès illégal lors du développement d'AGI.

Un autre obstacle majeur est la difficulté technologique de gestion des systèmes AGI. Ces systèmes se rapprochent et même dépassent l’intelligence humaine. Par conséquent, nous devons nous assurer que leurs actions sont avantageuses et conformes aux idéaux humains. Et c'est sans aucun doute un défi en ce moment. Le « problème de contrôle », lié à la création de systèmes AGI pouvant être dirigés et contrôlés de manière cohérente par des opérateurs humains, est un sujet abordé par Aschenbrenner. Cela implique de créer des mesures de sécurité, d'être ouvert et honnête sur les procédures de prise de décision et d'avoir le pouvoir d'annuler ou d'arrêter le système si nécessaire.

Léopold Aschenbrenner, ancien OpenAI membre, explore les progrès de l'IA et la voie potentielle de l'AGI, en examinant les questions scientifiques, morales et stratégiques, en mettant en évidence à la fois les dangers potentiels et potentiels.

Photo Connaissance de la situation

Les ramifications éthiques et culturelles de la production d’êtres dotés d’un intellect comparable ou supérieur à celui des humains sont profondément soulevées par le développement de l’intelligence artificielle générale (IAG). Les droits des systèmes d’IA, leurs effets sur l’emploi et l’économie, ainsi que la possibilité d’une aggravation des injustices déjà existantes sont d’autres préoccupations. Afin de relever pleinement ces défis complexes, Leopold plaide pour l’implication des parties prenantes dans le processus de développement de l’IA.

La possibilité de conséquences inattendues – lorsque les systèmes d’IA pourraient poursuivre leurs objectifs de manière préjudiciable ou contraire aux intentions humaines – est une autre question abordée par l’auteur. Les situations dans lesquelles l'AGI interprète mal ses objectifs ou maximise ses objectifs de manière imprévue et nuisible en sont deux exemples. Aschenbrenner souligne à quel point il est crucial de tester, valider et surveiller minutieusement les systèmes AGI.

Il évoque également l’importance de la coopération et de la gouvernance internationales. La recherche sur l’IA étant une entreprise internationale, aucun pays ni aucune institution ne peut à lui seul résoudre efficacement les problèmes posés par l’IA.

L’arrivée du projet AGI dirigé par le gouvernement (2027/2028)

Aschenbrenner estime qu'à mesure que l'intelligence artificielle générale (AGI) progresse, les agences de sécurité nationale, en particulier celles des États-Unis, joueront un rôle plus important dans la création et la gestion de ces technologies.

Léopold compare l’importance stratégique de l’intelligence artificielle générale (AGI) aux réalisations techniques passées comme la bombe atomique et l’exploration spatiale. Les services de sécurité nationale devraient donner la priorité au développement de l’AGI comme une question d’intérêt national, car les avantages potentiels d’atteindre l’AGI en premier pourraient conférer une énorme influence géopolitique. Selon lui, cela se traduira par la création d'un projet AGI sous contrôle gouvernemental, dont la portée et les aspirations seront comparables à celles du projet AGI. Programme Apollo ou la projet Manhattan.

Le projet AGI proposé serait hébergé dans un endroit sécurisé et secret et pourrait impliquer des sociétés du secteur privé, des agences gouvernementales et d'éminentes institutions universitaires travaillant ensemble. Afin de résoudre les problèmes complexes du développement de l’AGI, Aschenbrenner souligne la nécessité d’une stratégie multidisciplinaire réunissant des spécialistes de la cybersécurité, de l’éthique, de la recherche sur l’IA et d’autres domaines scientifiques.

Les objectifs du projet seraient de garantir qu'AGI soit en adéquation avec les valeurs et les intérêts humains en plus de le développer. Léopold souligne à quel point il est crucial de mettre en place des procédures de test et de validation strictes pour garantir que les systèmes AGI fonctionnent de manière sûre et prévisible. 

L’auteur consacre beaucoup d’espace aux effets possibles de ce type d’effort sur la dynamique du pouvoir mondial. Selon Aschenbrenner, si l’AGI est développé avec succès, l’équilibre des pouvoirs pourrait changer et le pays dominant bénéficierait d’avantages considérables en termes de technologie, d’économie et de puissance militaire.

Afin de contrôler les aléas liés à l’AGI, l’auteur aborde également la possibilité d’une coopération internationale et la création de cadres de gouvernance mondiale. Afin d'encadrer la croissance d'AGI, d'encourager l'ouverture et de garantir que les avantages de l'AGI soient partagés équitablement, Léopold est un défenseur de la mise en place d'accords internationaux et d'agences de régulation.

Les dernières pensées de Léopold Aschenbrenner

Aschenbrenner souligne les ramifications significatives de l'AGI et de la superintelligence pour l'avenir de l'humanité en résumant les découvertes et les prévisions couvertes dans les chapitres précédents. Les parties prenantes sont invitées à prendre les mesures nécessaires afin de se préparer aux effets révolutionnaires de l’IA sophistiquée.

Aschenbrenner commence par souligner que les prévisions faites dans ce document sont hypothétiques. Les modèles sous-jacents de la croissance de l’IA impliquent que l’avènement de l’AGI et de la superintelligence est réalisable au cours des prochaines décennies, même si le calendrier et les développements exacts sont inconnus. Léopold souligne l’importance d’examiner attentivement ces options et d’être prêt à faire face à diverses éventualités.

Le sujet principal de ce chapitre est la nécessité d'une préparation proactive et d'une réflexion prospective. Selon Aschenbrenner, il y a peu de place à l’autosatisfaction, compte tenu de la vitesse à laquelle l’IA se développe. Il est impératif que les décideurs politiques, les chercheurs et les chefs d’entreprise prévoient et gèrent de manière proactive les difficultés et les possibilités posées par l’intelligence artificielle (AGI) et la superintelligence. Par exemple, financer la recherche sur la sécurité de l’IA, créer des structures de gouvernance solides et encourager la collaboration mondiale.

Léopold considère également les conséquences morales et culturelles de l'intelligence artificielle. Des problèmes fondamentaux concernant la nature de la conscience, l’intelligence et les droits des entités d’IA sont soulevés par l’émergence de systèmes dotés d’une intelligence comparable ou supérieure à celle des humains. Aschenbrenner exhorte les éthiciens, les philosophes et le grand public à s'engager dans une conversation vaste et inclusive afin de résoudre ces problèmes et de créer une compréhension commune de l'avenir de l'IA.

La possibilité que l’AGI aggrave les disparités sociales et économiques déjà existantes constitue un autre sujet de discussion important. Léopold prévient que si l’AGI n’est pas gérée avec soin, ses avantages pourraient se concentrer entre les mains d’un petit nombre de personnes, provoquant un mécontentement sociétal et davantage d’inégalités.

Il lance un défi pour la coopération mondiale en clôturant ce chapitre. Un seul pays ne peut pas gérer les avantages et les difficultés liés à l’AGI en raison de la nature mondiale du développement de l’IA. Aschenbrenner exhorte les nations à collaborer afin de créer des accords et des conventions internationales qui soutiennent le développement de l'AGI d'une manière à la fois éthique et sûre. Cela implique d'échanger des informations, d'organiser des études et de créer des systèmes pour gérer d'éventuels différends et garantir la sécurité internationale.

Clause de non-responsabilité

En ligne avec la Lignes directrices du projet de confiance, veuillez noter que les informations fournies sur cette page ne sont pas destinées à être et ne doivent pas être interprétées comme des conseils juridiques, fiscaux, d'investissement, financiers ou toute autre forme de conseil. Il est important d’investir uniquement ce que vous pouvez vous permettre de perdre et de demander des conseils financiers indépendants en cas de doute. Pour plus d'informations, nous vous suggérons de vous référer aux conditions générales ainsi qu'aux pages d'aide et de support mises à disposition par l'émetteur ou l'annonceur. MetaversePost s'engage à fournir des rapports précis et impartiaux, mais les conditions du marché sont susceptibles de changer sans préavis.

A propos de l'auteur

Victoria est une écrivaine sur une variété de sujets technologiques, notamment Web3.0, IA et crypto-monnaies. Sa vaste expérience lui permet d’écrire des articles perspicaces destinés à un public plus large.

Plus d'articles
d'Este
d'Este

Victoria est une écrivaine sur une variété de sujets technologiques, notamment Web3.0, IA et crypto-monnaies. Sa vaste expérience lui permet d’écrire des articles perspicaces destinés à un public plus large.

Hot Stories
Rejoignez notre newsletter.
Dernières actualités

Le calme avant la tempête Solana : ce que disent les cartes, les baleines et les signaux en chaîne

Solana a démontré de solides performances, portées par une adoption croissante, un intérêt institutionnel et des partenariats clés, tout en étant confrontée à un potentiel...

Savoir Plus

Cryptomonnaies en avril 2025 : tendances clés, évolutions et perspectives

En avril 2025, l'espace crypto s'est concentré sur le renforcement de l'infrastructure de base, Ethereum se préparant pour le Pectra...

Savoir Plus
Lire la suite
En savoir plus
HSC Asset Management clôture son édition de Hong Kong en présentant des perspectives qui stimulent la participation institutionnelle. Web3 Et les technologies émergentes
Featured Saisons de piratage Entreprise Lifestyle Marchés Rapport de nouvelles Technologie
HSC Asset Management clôture son édition de Hong Kong en présentant des perspectives qui stimulent la participation institutionnelle. Web3 Et les technologies émergentes
13 février 2026
CertiK remporte le prix de la « Meilleure solution de sécurité et de conformité 2026 » aux SiGMA AIBC Eurasia Awards
Rapport de nouvelles Technologie
CertiK remporte le prix de la « Meilleure solution de sécurité et de conformité 2026 » aux SiGMA AIBC Eurasia Awards
13 février 2026
Binance, BlackRock et Ripple mènent la poussée institutionnelle sur les cryptomonnaies au cours de la deuxième semaine de février
Entreprise Rapport de nouvelles Technologie
Binance, BlackRock et Ripple mènent la poussée institutionnelle sur les cryptomonnaies au cours de la deuxième semaine de février
13 février 2026
Le fondateur de Gate, le Dr Han, parle de l'avancement du système financier de nouvelle génération grâce à l'intelligence artificielle Web3
Entreprise Rapport de nouvelles Technologie
Le fondateur de Gate, le Dr Han, parle de l'avancement du système financier de nouvelle génération grâce à l'intelligence artificielle Web3
13 février 2026
CRYPTOMERIA LABS PTE. LTD.