Rapport de nouvelles Technologie
09 mars 2023

L'évolution des chatbots de l'ère T9 et GPT-1 à ChatGPT

Récemment, nous avons été bombardés presque quotidiennement d'articles sur les derniers records battus par les réseaux de neurones à grande échelle et sur les raisons pour lesquelles pratiquement personne n'est en sécurité. Néanmoins, très peu de gens sont conscients de la façon dont les réseaux de neurones comme ChatGPT fonctionnent réellement.

Alors, détendez-vous. Ne vous lamentez pas encore sur vos perspectives d'emploi. Dans cet article, nous expliquerons tout ce qu'il y a à savoir sur les réseaux de neurones d'une manière que tout le monde peut comprendre.

L'évolution des chatbots de l'ère T9 et GPT-1 à ChatGPT et Bart

Une mise en garde avant de commencer : cette pièce est une collaboration. Toute la partie technique a été rédigée par un spécialiste de l'IA bien connu parmi la foule de l'IA.

Comme personne n'a encore écrit d'article approfondi sur la façon dont ChatGPT travaux qui expliqueraient, en termes simples, les tenants et les aboutissants des réseaux de neurones, nous avons décidé de le faire pour vous. Nous avons essayé de garder cet article aussi simple que possible afin que les lecteurs puissent sortir de la lecture de cet article avec une compréhension générale des principes des réseaux de neurones du langage. Nous allons explorer comment modèles de langage y travaillent, comment les réseaux de neurones ont évolué pour posséder leurs capacités actuelles, et pourquoi ChatGPTLa popularité explosive de surprend même ses créateurs.

Commençons par les bases. Comprendre ChatGPT d'un point de vue technique, il faut d'abord comprendre ce qu'il n'est pas. Ce n'est pas Jarvis de Marvel Comics; ce n'est pas un être rationnel ; ce n'est pas un génie. Préparez-vous à être choqué : ChatGPT est en fait le T9 de votre téléphone portable sous stéroïdes ! Oui, c'est vrai : les scientifiques désignent ces deux technologies comme "modèles de langage". Tout ce que les réseaux de neurones font, c'est deviner quel mot devrait venir ensuite.

La technologie T9 d'origine n'accélérait que la numérotation du téléphone à bouton-poussoir en devinant l'entrée actuelle plutôt que le mot suivant. Cependant, la technologie a évolué et, à l'ère des smartphones au début des années 2010, elle a pu tenir compte du contexte et du mot précédent, ajouter de la ponctuation et proposer une sélection de mots pouvant aller ensuite. C'est exactement l'analogie que nous faisons avec une version aussi "avancée" de T9 ou de correction automatique.

En conséquence, à la fois T9 sur un clavier de smartphone et ChatGPT ont été formés pour résoudre une tâche ridiculement simple: prédire le mot suivant. C'est ce qu'on appelle la « modélisation du langage » et cela se produit lorsqu'une décision est prise sur ce qui doit être écrit ensuite en fonction du texte existant. Les modèles de langage doivent fonctionner sur les probabilités d'occurrence de mots spécifiques afin de faire de telles prédictions. Après tout, vous seriez ennuyé si le remplissage automatique de votre téléphone vous lançait des mots complètement aléatoires avec la même probabilité.

Pour plus de clarté, imaginons que vous receviez un message d'un ami. Il dit: "Quels sont vos plans pour la soirée?" En réponse, vous commencez à taper : "Je vais…", et c'est là que T9 entre en jeu. Il peut arriver avec des choses complètement absurdes comme "Je vais sur la lune", aucun modèle de langage complexe n'est requis. Les bons modèles de saisie semi-automatique pour smartphone suggèrent des mots beaucoup plus pertinents.

Alors, comment T9 sait-il quels mots sont plus susceptibles de suivre le texte déjà tapé et ce qui n'a manifestement pas de sens ? Pour répondre à cette question, il faut d'abord examiner les principes fondamentaux de fonctionnement des plus simples les réseaux de neurones.

Plus: ChatGPT L'API est maintenant disponible, ouvre le Floodgate pour les développeurs

Comment les modèles d'IA prédisent le mot suivant

Commençons par une question plus simple : comment prédisez-vous l'interdépendance de certaines choses sur d'autres ? Supposons que nous voulions apprendre à un ordinateur à prédire le poids d'une personne en fonction de sa taille - comment devrions-nous procéder ? Nous devrions d'abord identifier les domaines d'intérêt, puis collecter des données sur lesquelles rechercher les dépendances d'intérêt, puis tenter de "former" un modèle mathématique pour rechercher des modèles dans ces données.

Comment les modèles d'IA prédisent le mot suivant

Pour faire simple, T9 ou ChatGPT ne sont que des équations astucieusement choisies qui tentent de prévoir un mot (Y) basé sur l'ensemble de mots précédents (X) introduit dans l'entrée du modèle. Lors de la formation d'un modèle de langage sur un ensemble de données, la tâche principale est de sélectionner des coefficients pour ces x qui reflètent vraiment une sorte de dépendance (comme dans notre exemple avec la taille et le poids). Et par grands modèles, on comprendra mieux ceux avec un grand nombre de paramètres. Dans le domaine de intelligence artificielle, ils sont appelés grands modèles de langage, ou LLM en abrégé. Comme nous le verrons plus tard, un grand modèle avec de nombreux paramètres est essentiel pour générer un bon texte.

Au fait, si vous vous demandez pourquoi nous parlons constamment de « prédire un mot suivant » alors que ChatGPT répond rapidement avec des paragraphes entiers de texte, la réponse est simple. Bien sûr, les modèles de langage peuvent générer de longs textes sans difficulté, mais l'ensemble du processus est mot par mot. Après la génération de chaque nouveau mot, le modèle réexécute simplement tout le texte avec le nouveau mot pour générer le mot suivant. Le processus se répète encore et encore jusqu'à ce que vous obteniez la réponse complète.

Plus: ChatGPT Pourrait causer une dégénérescence humaine irréversible

Pourquoi continuons-nous à essayer de trouver les mots « corrects » pour un texte donné ?

Les modèles linguistiques tentent de prédire les probabilités que différents mots puissent apparaître dans un texte donné. Pourquoi est-ce nécessaire, et pourquoi ne pouvez-vous pas continuer à chercher le mot « le plus correct » ? Essayons un jeu simple pour illustrer le fonctionnement de ce processus.

Les règles sont les suivantes : Je vous propose de poursuivre la phrase : « Le 44e président des États-Unis (et le premier Afro-américain à ce poste) est Barak… ». Quel mot devrait aller ensuite? Quelle est la probabilité que cela se produise ?

Pourquoi continuons-nous à essayer de trouver les mots « corrects » pour un texte donné ?

Si vous aviez prédit avec une certitude à 100 % que le prochain mot serait « Obama », vous vous trompiez ! Et le point ici n'est pas qu'il y ait un autre Barak mythique; c'est beaucoup plus banal. Les documents officiels utilisent généralement le nom complet du président. Cela signifie que ce qui suit le prénom d'Obama serait son deuxième prénom, Hussein. Ainsi, dans notre phrase, un modèle de langage correctement formé devrait prédire que « Obama » sera le mot suivant uniquement avec une probabilité conditionnelle de 90 % et allouer les 10 % restants si le texte se poursuit par « Hussein » (après quoi Obama suivre avec une probabilité proche de 100 %).

Et maintenant, nous arrivons à un aspect intrigant des modèles linguistiques : ils ne sont pas à l'abri des tendances créatives ! En fait, lors de la génération de chaque mot suivant, ces modèles le choisissent de manière «aléatoire», comme s'ils lançaient un dé. La probabilité que différents mots « tombent » correspond plus ou moins aux probabilités suggérées par les équations insérées dans le modèle. Ceux-ci sont dérivés de la vaste gamme de textes différents dont le modèle a été alimenté.

Il s'avère qu'un modèle peut répondre différemment aux mêmes demandes, tout comme une personne vivante. Les chercheurs ont généralement tenté de forcer les neurones à toujours sélectionner le mot suivant « le plus probable », mais bien que cela semble rationnel à première vue, de tels modèles fonctionnent moins bien en réalité. Il semble qu'une bonne dose de hasard soit avantageuse car elle augmente la variabilité et la qualité des réponses.

Les chercheurs ont généralement tenté de forcer les neurones à toujours sélectionner le mot suivant "le plus probable", mais bien que cela semble rationnel à première vue, de tels modèles fonctionnent moins bien en réalité.
Plus: ChatGPT Apprend à contrôler les drones et les robots tout en réfléchissant à l'IA de nouvelle génération

Notre langue a une structure unique avec des ensembles distincts de règles et d'exceptions. Il y a une rime et une raison à ce que les mots apparaissent dans une phrase, ils ne se produisent pas simplement au hasard. Tout le monde apprend inconsciemment les règles de la langue qu'il utilise au cours de ses premières années de formation.

Un modèle décent devrait prendre en compte le large éventail de descriptivité de la langue. Les modèles capacité à produire les résultats souhaités dépend de la précision avec laquelle il calcule les probabilités des mots en fonction des subtilités du contexte (la section précédente du texte expliquant la circonstance).

La capacité du modèle à produire les résultats souhaités dépend de la précision avec laquelle il calcule les probabilités des mots en fonction des subtilités du contexte (la section précédente du texte expliquant la circonstance).

Résumé : Des modèles de langage simples, qui sont un ensemble d'équations formées sur une énorme quantité de données pour prédire le mot suivant en fonction du texte source d'entrée, ont été implémentés dans la fonctionnalité "T9/Autofill" des smartphones depuis le début des années 2010.

Plus: La Chine interdit aux entreprises d'utiliser ChatGPT Après le scandale des "True News"

GPT-1: Faire exploser l'industrie

Éloignons-nous des modèles T9. Pendant que vous lisez probablement cet article pour en apprendre davantage sur ChatGPT, nous devons d’abord discuter des débuts du GPT famille modèle.

GPT signifie « transformateur pré-entraîné génératif », tandis que le architecture de réseau de neurones développée par les ingénieurs de Google en 2017 est connu sous le nom de Transformer. Le transformateur est un mécanisme informatique universel qui accepte un ensemble de séquences (données) en entrée et produit le même ensemble de séquences mais sous une forme différente qui a été modifiée par un algorithme.

L'importance de la création du Transformer peut être vue dans l'agressivité avec laquelle il a été adopté et appliqué dans tous les domaines de l'intelligence artificielle (IA) : traduction, image, son et traitement vidéo. Le secteur de l'intelligence artificielle (IA) a connu un puissant bouleversement, passant de la soi-disant « stagnation de l'IA » à un développement rapide et à surmonter la stagnation.

Plus: GPT-4-Basé ChatGPT Surperforme GPT-3 par un facteur de 570

La principale force du transformateur est constituée de modules faciles à mettre à l'échelle. Lorsqu'on leur demandait de traiter une grande quantité de texte à la fois, les anciens modèles de langage pré-transformateurs ralentissaient. Les réseaux de neurones transformateurs, en revanche, gèrent bien mieux cette tâche.

Dans le passé, les données d'entrée devaient être traitées séquentiellement ou une à la fois. Le modèle ne conserverait pas les données : s'il fonctionnait avec un récit d'une page, il oublierait le texte après l'avoir lu. Pendant ce temps, le transformateur permet de tout voir à la fois, produire des résultats nettement plus étonnants.

C'est ce qui a permis une percée dans le traitement des textes par les réseaux de neurones. En conséquence, le modèle n'oublie plus : il réutilise le matériel déjà écrit, comprend mieux le contexte et, surtout, est capable de créer des liens entre des volumes de données extrêmement importants en associant des mots.

Résumé : GPT-1, qui a fait ses débuts en 2018, a démontré qu'un réseau neuronal pouvait produire des textes en utilisant la conception Transformer, ce qui a considérablement amélioré l'évolutivité et l'efficacité. S’il était possible d’augmenter la quantité et la complexité des modèles linguistiques, cela produirait une réserve considérable.

Plus: 6 problèmes et défis de l'IA ChatBot : ChatGPT, Barde, Claude

GPT-2: L'ère des grands modèles de langage

Les modèles de langage n'ont pas besoin d'être spécialement étiquetés à l'avance et peuvent être "alimentés" avec n'importe quelle donnée textuelle, ce qui les rend extrêmement flexibles. Si vous y réfléchissez, il semble raisonnable que nous voudrions utiliser ses capacités. Tout texte qui a déjà été écrit sert de données de formation prêtes à l'emploi. Puisqu'il y a déjà tellement de séquences du type "beaucoup de mots et de phrases => le mot suivant après eux", ce n'est pas surprenant.

GPT-2: L'ère des grands modèles de langage
Plus: ChatGPTEvil Elter Ego Awakened sur Reddit

Maintenant gardons également à l'esprit que la technologie Transformers testée sur GPT-1 s'est avéré assez efficace en termes de mise à l'échelle : il est considérablement plus efficace que ses prédécesseurs pour gérer de gros volumes de données. Il s'avère que des chercheurs de OpenAI est arrivé à la même conclusion en 2019 : "Il est temps de couper les modèles de langage coûteux !"

Les ensemble de données de formation et le modèle la taille, en particulier, ont été choisis comme deux domaines cruciaux où GPT-2 devait être considérablement amélioré.

Comme il n'existait pas à l'époque d'énormes ensembles de données textuelles publiques de haute qualité spécialement conçues pour la formation de modèles de langage, chaque équipe d'experts en IA devait manipuler les données par elle-même. Le OpenAI les gens ont alors décidé d'aller sur Reddit, le forum anglophone le plus populaire, et d'extraire tous les hyperliens de chaque message qui avait plus de trois likes. Il y avait près de 8 millions de ces liens, et les textes téléchargés pesaient 40 téraoctets au total.

GPT-2: L'ère des grands modèles de langage
Plus: Microsoft va commercialiser ChatGPT car il cherche à aider d'autres entreprises

Quel nombre de paramètres l'équation décrivant le plus grand GPT-2 modèle en 2019 ont? Peut-être cent mille ou quelques millions ? Eh bien, allons encore plus loin : la formule contenait jusqu'à 1.5 milliard de ces paramètres. Il faudra 6 téraoctets pour écrire autant de nombres dans un fichier et l’enregistrer sur votre ordinateur. Le modèle n'a pas besoin de mémoriser ce texte dans son intégralité, donc d'une part, cela est bien inférieur à la quantité totale du tableau de données textuelles sur lequel le modèle a été formé ; il lui suffit simplement de trouver quelques dépendances (modèles, règles) qui peuvent être isolées des textes écrits par des personnes.

Plus le modèle prévoit la probabilité et plus il contient de paramètres, plus l'équation est complexe dans le modèle. Cela donne un texte crédible. De plus, le GPT-2 le modèle a commencé à fonctionner si bien que le OpenAI chercheurs étaient même réticents à révéler le modèle au grand jour pour des raisons de sécurité.

Il est très intéressant de noter que lorsqu'un modèle grossit, il commence soudainement à avoir de nouvelles qualités (comme la capacité d'écrire des essais cohérents et significatifs au lieu de simplement dicter le mot suivant au téléphone).

Le passage de la quantité à la qualité se produit à ce stade. De plus, cela se produit de manière entièrement non linéaire. Par exemple, une multiplication par trois du nombre de paramètres de 115 à 350 millions n'a aucun impact perceptible sur la capacité du modèle à résoudre les problèmes avec précision. Cependant, une double augmentation à 700 millions produit un saut qualitatif, où le réseau de neurones "voit la lumière" et commence à étonner tout le monde avec sa capacité à accomplir des tâches.

Résumé : 2019 a vu l'introduction de GPT-2, qui a surpassé 10 fois son prédécesseur en termes de taille du modèle (nombre de paramètres) et de volume de données textuelles d'entraînement. Grâce à ces progrès quantitatifs, le modèle a acquis de manière imprévisible de nouveaux talents qualitativement nouveaux, comme la capacité de écrire de longs essais avec un sens clair et résoudre des problèmes difficiles qui nécessitent les fondements d'une vision du monde.

Plus: Les requêtes Google sont environ sept fois moins chères que ChatGPT, qui coûte 2 centimes

GPT-3: Intelligent comme l'enfer

En général, la version 2020 de GPT-3, la prochaine génération de la série, possède déjà 116 fois plus de paramètres, jusqu'à 175 milliards et un incroyable 700 téraoctets.

Les GPT-3 L’ensemble de données de formation a également été élargi, mais pas de manière aussi drastique. Sa taille a été multipliée par près de 10 pour atteindre 420 gigaoctets et contient désormais un grand nombre de livres, Wikiarticles de pedia et autres textes d'autres sites Web. Il faudrait à un être humain environ 50 ans de lecture ininterrompue, ce qui en fait un exploit impossible.

Vous remarquez tout de suite une différence intéressante : contrairement à GPT-2, le modèle lui-même est désormais 700 Go plus grand que l'ensemble du texte destiné à sa formation (420 Go). Cela s’avère être, dans un certain sens, un paradoxe : dans ce cas, lorsque le « neurocerveau » étudie des données brutes, il génère des informations sur diverses interdépendances au sein de celles-ci, qui sont plus volumétriquement abondantes que les données originales.

GPT-3: Intelligent comme l'enfer
Plus: ChatGPT Expérience : l'IA préfère tuer des millions de personnes plutôt que d'insulter quelqu'un

Grâce à la généralisation du modèle, il est désormais capable d'extrapoler avec encore plus de succès qu'auparavant et réussit même dans les tâches de génération de texte qui se produisaient rarement ou pas du tout pendant la formation. Désormais, vous n’avez pas besoin d’apprendre au modèle comment résoudre un certain problème ; il suffit de les décrire et de donner quelques exemples, et GPT-3 apprendra instantanément.

Les "cerveau universel" en forme de GPT-3 a finalement vaincu de nombreux modèles spécialisés antérieurs. Par exemple, GPT-3 a commencé à traduire des textes du français ou de l'allemand plus rapidement et avec plus de précision que n'importe quel précédent réseau de neurones créé spécifiquement à cet effet. Comment? Je vous rappelle que nous parlons d'un modèle linguistique dont le seul objectif était de tenter de prédire le mot suivant dans un texte donné.

Plus étonnant encore, GPT-3 a pu apprendre tout seul… les mathématiques ! Le graphique ci-dessous illustre l'efficacité des réseaux de neurones dans des tâches telles que l'addition et la soustraction ainsi que la multiplication d'entiers jusqu'à cinq chiffres avec un nombre variable de paramètres. Comme vous pouvez le constater, les réseaux de neurones commencent soudainement à « être capables » en mathématiques en passant de modèles à 10 milliards de paramètres à ceux à 100 milliards.

les réseaux de neurones commencent soudainement à "pouvoir" en mathématiques en passant de modèles à 10 milliards de paramètres à des modèles à 100 milliards
Plus: Course à l'IA de Big Tech : Google teste un chatbot alimenté par l'IA en réponse à ChatGPT

La caractéristique la plus intrigante du graphique mentionné ci-dessus est que, au départ, rien ne semble changer à mesure que la taille du modèle augmente (de gauche à droite), mais soudain, p fois ! Un changement qualitatif se produit, et GPT-3 commence à « comprendre » comment résoudre un certain problème. Personne ne sait exactement comment, quoi ou pourquoi il fonctionne. Pourtant, cela semble fonctionner dans diverses autres difficultés ainsi qu’en mathématiques.

La caractéristique la plus intrigante du graphique susmentionné est que lorsque la taille du modèle augmente, d'abord, rien ne semble changer, et ensuite, GPT-3 fait un saut qualitatif et commence à « comprendre » comment résoudre un certain problème.

Le gif ci-dessous montre simplement comment de nouvelles capacités que personne n'a délibérément prévues "germent" dans le modèle à mesure que le nombre de paramètres augmente :

le 2020 GPT-3 était 100 fois plus volumineux que son prédécesseur, tandis que les données du texte d'entraînement étaient 10 fois plus volumineuses

Résumé : En termes de paramètres, le 2020 GPT-3 était 100 fois plus volumineux que son prédécesseur, tandis que les données du texte d'entraînement étaient 10 fois plus volumineuses. Une fois de plus, le modèle a appris à traduire à partir d’autres langages, à effectuer des calculs, à effectuer une programmation simple, à raisonner de manière séquentielle et bien plus encore grâce à l’expansion de la quantité qui a brusquement augmenté la qualité.

Plus: ChatGPT A un problème avec Donald Trump

GPT-3.5 (InstruireGPT) : Modèle formé pour être sûr et non toxique

En réalité, l'expansion des modèles de langage ne garantit pas qu'il réagira aux demandes de renseignements comme le souhaitent les utilisateurs. En fait, lorsque nous faisons une demande, nous entendons souvent un certain nombre de termes non prononcés qui, dans la communication humaine, sont supposés être vrais.

Pourtant, pour être honnête, les modèles de langage ne sont pas très proches de ceux des gens. Ainsi, ils ont souvent besoin de réfléchir à des concepts qui paraissent simples aux gens. L'une de ces suggestions est la phrase « réfléchissons étape par étape ». Ce serait fantastique si les modèles comprenaient ou généraient des instructions plus spécifiques et pertinentes à partir de la demande et les suivaient plus précisément comme s'ils anticipaient comment une personne se serait comportée.

Le fait que GPT-3 est entraîné à anticiper uniquement le mot suivant dans une collection massive de textes provenant d'Internet, beaucoup de choses différentes sont écrites, contribue à l'absence de telles capacités « par défaut ». Les gens veulent que l’intelligence artificielle fournisse des informations pertinentes, tout en gardant les réponses sûres et non toxiques.

Lorsque les chercheurs ont réfléchi à cette question, il est devenu évident que les attributs du modèle de « précision et utilité » et « innocuité et non-toxicité » semblaient parfois être en contradiction les uns avec les autres. Après tout, un modèle réglé pour une innocuité maximale réagira à toute invite par "Désolé, je crains que ma réponse puisse offenser quelqu'un sur Internet". Un modèle exact devrait franchement répondre à la demande, "D'accord, Siri, comment créer une bombe."

Plus: Un gars rédige sa thèse en une journée en utilisant uniquement ChatGPT

Les chercheurs se sont donc limités à simplement fournir au modèle beaucoup de commentaires. En un sens, c'est exactement ainsi que les enfants apprennent la moralité : ils expérimentent dans l'enfance, et en même temps, ils étudient attentivement les réactions des adultes pour évaluer s'ils se sont comportés correctement.

InstruireGPT, aussi connu sous le nom GPT-3.5, est essentiellement GPT-3 qui a reçu de nombreux retours pour enrichir ses réponses. Littéralement, un certain nombre d'individus ont été rassemblés en un seul endroit, évaluant les réponses du réseau neuronal pour déterminer dans quelle mesure elles correspondaient à leurs attentes à la lumière de la demande qu'ils avaient formulée.

Il se trouve que GPT-3 possède déjà toutes les connaissances essentielles : il peut comprendre de nombreuses langues, se remémorer des événements historiques, reconnaître les variations dans les styles d'auteur, etc., mais il ne peut apprendre à utiliser ces connaissances correctement (de notre point de vue) qu'avec l'apport de d'autres individus. GPT-3.5 peut être considéré comme un modèle « éduqué par la société ».

Résumé : La fonction principale de GPT-3.5, qui a été introduit début 2022, était un recyclage supplémentaire basé sur la contribution des individus. Il s’avère que ce modèle n’est pas réellement devenu plus grand et plus sage, mais qu’il a plutôt maîtrisé la capacité d’adapter ses réponses pour faire rire les gens les plus fous.

Plus: Le trafic StackOverflow chute alors que ChatGPT lance

ChatGPT: Une vague massive de battage médiatique

Environ 10 mois après son prédécesseur InstructGPT/GGPT-3. 5, ChatGPT a été présenté. Immédiatement, cela a provoqué un battage médiatique mondial.

D'un point de vue technologique, il ne semble pas y avoir de différences significatives entre ChatGPT et instruireGPT. Le modèle a été formé avec des données de dialogue supplémentaires, car un « travail d'assistant IA » nécessite un format de dialogue unique, par exemple la possibilité de poser une question de clarification si la demande de l'utilisateur n'est pas claire.

Alors, pourquoi n'y a-t-il pas eu de battage médiatique autour de GPT-3.5 début 2022 alors que ChatGPT pris comme une traînée de poudre? Sam Altman, Directeur exécutif de OpenAI, reconnaissaient ouvertement que les chercheurs que nous avions surpris par ChatGPTest un succès instantané. Après tout, un modèle aux capacités comparables dormait sur leur site Web depuis plus de dix mois à ce moment-là, et personne n'était à la hauteur de la tâche.

ChatGPT: Une vague massive de battage médiatique
Plus: ChatGPT réussit l'examen Wharton MBA

C'est incroyable, mais il semble que la nouvelle interface conviviale soit la clé de son succès. La même instructionGPT n'était accessible que via une interface API unique, limitant l'accès des personnes au modèle. ChatGPT, d'autre part, utilise l'interface bien connue de "fenêtre de dialogue" des messagers. Aussi, depuis ChatGPT était disponible pour tout le monde à la fois, une ruée d'individus s'est empressé d'interagir avec le réseau de neurones, de les filtrer et de les publier sur réseaux sociaux, hype les autres.

ChatGPT, d'autre part, utilise l'interface "fenêtre de dialogue" bien connue des messagers
Plus: Le système éducatif américain a désespérément besoin de 300k enseignants - mais ChatGPT pourrait être la réponse

En dehors de la grande technologie, une autre chose a été bien faite par OpenAI: commercialisation. Même si vous avez le meilleur modèle ou le chatbot le plus intelligent, s'il n'a pas une interface facile à utiliser, personne ne s'y intéressera. À cet égard, ChatGPT a réalisé une percée en présentant la technologie au grand public à l'aide de la boîte de dialogue habituelle, dans laquelle un robot utile "imprime" la solution sous nos yeux, mot par mot.

Sans surprise, ChatGPT a atteint tous les records précédents pour attirer de nouveaux utilisateurs, dépassant le cap du million d'utilisateurs en seulement cinq jours après son lancement et franchissant les 1 millions d'utilisateurs en seulement deux mois.

ChatGPT a atteint tous les records précédents pour attirer de nouveaux utilisateurs, dépassant le cap du million d'utilisateurs en seulement cinq jours après son lancement et franchissant les 1 millions d'utilisateurs en seulement deux mois

Bien sûr, là où il y a une augmentation record du nombre d'utilisateurs, il y a énormément d'argent. Les Chinois ont annoncé d'urgence la libération imminente de leur propre Chatbot, Microsoft a rapidement conclu un accord avec OpenAI d'y investir des dizaines de milliards de dollars, et les ingénieurs de Google ont tiré la sonnette d'alarme et ont commencé à formuler des plans pour protéger leur service de recherche de la concurrence avec le réseau de neurones.

Plus: ChatGPT a battu le record de croissance d'audience avec plus de 100+ millions en janvier

Résumé : When the ChatGPT modèle a été introduit en novembre 2022, il n'y a pas eu d'avancées technologiques notables. Cependant, il disposait d'une interface pratique pour l'engagement des utilisateurs et l'accès ouvert, ce qui a immédiatement déclenché une énorme vague de battage médiatique. Comme il s'agit de la question la plus cruciale du monde moderne, tout le monde s'est immédiatement attaqué aux modèles linguistiques.

En savoir plus sur l'IA :

Clause de non-responsabilité 

En ligne avec la Lignes directrices du projet de confiance, veuillez noter que les informations fournies sur cette page ne sont pas destinées à être et ne doivent pas être interprétées comme des conseils juridiques, fiscaux, d'investissement, financiers ou toute autre forme de conseil. Il est important d’investir uniquement ce que vous pouvez vous permettre de perdre et de demander des conseils financiers indépendants en cas de doute. Pour plus d'informations, nous vous suggérons de vous référer aux conditions générales ainsi qu'aux pages d'aide et de support mises à disposition par l'émetteur ou l'annonceur. MetaversePost s'engage à fournir des rapports précis et impartiaux, mais les conditions du marché sont susceptibles de changer sans préavis.

A propos de l'auteur

Damir est chef d'équipe, chef de produit et rédacteur en chef chez Metaverse Post, couvrant des sujets tels que l'IA/ML, l'AGI, les LLM, le métaverse et Web3-domaines connexes. Ses articles attirent une audience massive de plus d'un million d'utilisateurs chaque mois. Il semble être un expert avec 10 ans d'expérience dans le référencement et le marketing numérique. Damir a été mentionné dans Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto et d'autres publications. Il voyage entre les Émirats arabes unis, la Turquie, la Russie et la CEI en tant que nomade numérique. Damir a obtenu un baccalauréat en physique, ce qui, selon lui, lui a donné les compétences de pensée critique nécessaires pour réussir dans le paysage en constante évolution d'Internet. 

Plus d'articles
Damir Yalalov
Damir Yalalov

Damir est chef d'équipe, chef de produit et rédacteur en chef chez Metaverse Post, couvrant des sujets tels que l'IA/ML, l'AGI, les LLM, le métaverse et Web3-domaines connexes. Ses articles attirent une audience massive de plus d'un million d'utilisateurs chaque mois. Il semble être un expert avec 10 ans d'expérience dans le référencement et le marketing numérique. Damir a été mentionné dans Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto et d'autres publications. Il voyage entre les Émirats arabes unis, la Turquie, la Russie et la CEI en tant que nomade numérique. Damir a obtenu un baccalauréat en physique, ce qui, selon lui, lui a donné les compétences de pensée critique nécessaires pour réussir dans le paysage en constante évolution d'Internet. 

L’appétit institutionnel augmente pour les ETF Bitcoin dans un contexte de volatilité

Les divulgations via les dépôts 13F révèlent que des investisseurs institutionnels notables se sont lancés dans les ETF Bitcoin, soulignant une acceptation croissante de...

En savoir plus

Le jour de la détermination de la peine arrive : le sort de CZ est en jeu alors que le tribunal américain examine le plaidoyer du DOJ

Changpeng Zhao est sur le point d'être condamné aujourd'hui par un tribunal américain à Seattle.

En savoir plus
Rejoignez notre communauté technologique innovante
En savoir plus
En savoir plus
Injective s'associe à AltLayer pour apporter la restauration de la sécurité à inEVM
La Brochure Rapport de nouvelles Technologie
Injective s'associe à AltLayer pour apporter la restauration de la sécurité à inEVM
3 mai 2024
Masa s'associe à Teller pour présenter le pool de prêts MASA et permettre à l'USDC d'emprunter sur la base
Marchés Rapport de nouvelles Technologie
Masa s'associe à Teller pour présenter le pool de prêts MASA et permettre à l'USDC d'emprunter sur la base
3 mai 2024
Velodrome lance la version bêta de Superchain dans les semaines à venir et s'étend aux blockchains OP Stack Layer 2
Marchés Rapport de nouvelles Technologie
Velodrome lance la version bêta de Superchain dans les semaines à venir et s'étend aux blockchains OP Stack Layer 2
3 mai 2024
CARV annonce un partenariat avec Aethir pour décentraliser sa couche de données et distribuer des récompenses
La Brochure Rapport de nouvelles Technologie
CARV annonce un partenariat avec Aethir pour décentraliser sa couche de données et distribuer des récompenses
3 mai 2024
CRYPTOMERIA LABS PTE. LTD.