Informe de noticias Tecnología
Marzo 09, 2023

La evolución de los chatbots de la era T9 y GPT-1 a ChatGPT

Recientemente, hemos sido bombardeados casi a diario con publicaciones de noticias sobre los últimos récords batidos por redes neuronales a gran escala y por qué el trabajo de casi nadie está a salvo. Sin embargo, muy pocas personas son conscientes de cómo las redes neuronales les gusta ChatGPT operar realmente.

Entonces, relájate. No te lamentes por tus perspectivas laborales todavía. En esta publicación, explicaremos todo lo que hay que saber sobre las redes neuronales de una manera que todos puedan comprender.

La evolución de los chatbots de la era T9 y GPT-1 a ChatGPT y bart

Una advertencia antes de comenzar: esta pieza es una colaboración. Toda la parte técnica fue escrita por un especialista en IA que es muy conocido entre la multitud de IA.

Dado que nadie ha escrito todavía un artículo en profundidad sobre cómo ChatGPT obras que explicarían, en términos sencillos, los entresijos de las redes neuronales, decidimos hacer esto por ti. Hemos tratado de mantener esta publicación lo más simple posible para que los lectores puedan terminar de leer esta publicación con una comprensión general de los principios de las redes neuronales del lenguaje. Exploraremos cómo modelos de lenguaje trabajar allí, cómo evolucionaron las redes neuronales para poseer sus capacidades actuales y por qué ChatGPTLa explosiva popularidad de 's sorprendió incluso a sus creadores.

Comencemos con lo básico. Comprender ChatGPT desde un punto de vista técnico, primero debemos entender lo que no es. Este no es Jarvis de Marvel Comics; no es un ser racional; no es un genio. Prepárate para sorprenderte: ChatGPT ¡es en realidad el T9 de tu celular con esteroides! Sí, lo es: los científicos se refieren a estas dos tecnologías como “modelos de lenguaje”. Todo lo que hacen las redes neuronales es adivinar qué palabra debe venir a continuación.

La tecnología T9 original solo aceleró la marcación del teléfono al adivinar la entrada actual en lugar de la siguiente palabra. Sin embargo, la tecnología avanzó y, en la era de los teléfonos inteligentes a principios de la década de 2010, pudo considerar el contexto y la palabra anterior, agregar puntuación y ofrecer una selección de palabras que podrían ir a continuación. Esa es exactamente la analogía que estamos haciendo con una versión tan “avanzada” de T9 o autocorrección.

Como resultado, tanto T9 en el teclado de un teléfono inteligente como ChatGPT han sido entrenados para resolver una tarea ridículamente simple: predecir la siguiente palabra. Esto se conoce como "modelado del lenguaje" y ocurre cuando se toma una decisión sobre lo que se debe escribir a continuación en función del texto existente. Los modelos de lenguaje deben operar sobre las probabilidades de ocurrencia de palabras específicas para poder hacer tales predicciones. Después de todo, te molestaría que el autocompletado de tu teléfono te arrojara palabras completamente aleatorias con la misma probabilidad.

Para mayor claridad, imaginemos que recibe un mensaje de un amigo. Dice: "¿Cuáles son tus planes para la noche?" En respuesta, comienza a escribir: "Voy a...", y aquí es donde entra en juego T9. Puede generar cosas completamente sin sentido como "Voy a la luna", sin necesidad de un modelo de lenguaje complejo. Los buenos modelos de autocompletado de teléfonos inteligentes sugieren palabras mucho más relevantes.

Entonces, ¿cómo sabe T9 qué palabras es más probable que sigan al texto ya escrito y qué claramente no tiene sentido? Para responder a esta pregunta, primero debemos examinar los principios operativos fundamentales de la más simple redes neuronales.

Más: ChatGPT La API ya está disponible, abre la compuerta para los desarrolladores

Cómo los modelos de IA predicen la siguiente palabra

Comencemos con una pregunta más simple: ¿Cómo predices la interdependencia de unas cosas con otras? Supongamos que queremos enseñarle a una computadora a predecir el peso de una persona en función de su altura, ¿cómo deberíamos hacerlo? Primero debemos identificar las áreas de interés y luego recopilar datos que permitan buscar las dependencias de interés y luego intentar “entrenar” algún modelo matemático para buscar patrones dentro de estos datos.

Cómo los modelos de IA predicen la siguiente palabra

En pocas palabras, T9 o ChatGPT son sólo ecuaciones ingeniosamente elegidas que intentan predecir una palabra (Y) basada en el conjunto de palabras anteriores (X) introducidas en la entrada del modelo. Al entrenar un modelo de lenguaje en un conjunto de datos, la tarea principal es seleccionar coeficientes para estas x que realmente reflejen algún tipo de dependencia (como en nuestro ejemplo con la altura y el peso). Y mediante modelos grandes, obtendremos una mejor comprensión de aquellos con una gran cantidad de parámetros. En el campo de inteligencia artificial, se denominan modelos de lenguaje extenso o LLM para abreviar. Como veremos más adelante, un modelo grande con muchos parámetros es esencial para generar un buen texto.

Por cierto, si se pregunta por qué hablamos constantemente de "predecir la próxima palabra" mientras ChatGPT responde rápidamente con párrafos enteros de texto, la respuesta es simple. Claro, los modelos de lenguaje pueden generar textos largos sin dificultad, pero todo el proceso es palabra por palabra. Después de que se genera cada nueva palabra, el modelo simplemente vuelve a ejecutar todo el texto con la nueva palabra para generar la siguiente palabra. El proceso se repite una y otra vez hasta obtener la respuesta completa.

Más: ChatGPT Podría causar una degeneración humana irreversible

¿Por qué seguimos tratando de encontrar las palabras 'correctas' para un texto dado?

Los modelos de lenguaje intentan predecir las probabilidades de diferentes palabras que pueden ocurrir en un texto dado. ¿Por qué es esto necesario y por qué no puedes seguir buscando la palabra "más correcta"? Probemos un juego simple para ilustrar cómo funciona este proceso.

Las reglas son las siguientes: Propongo que continúe la frase: “El 44º presidente de los Estados Unidos (y el primer afroamericano en este cargo) es Barak…”. ¿Qué palabra debe ir a continuación? ¿Cuál es la probabilidad de que ocurra?

¿Por qué seguimos tratando de encontrar las palabras 'correctas' para un texto dado?

Si predijo con 100% de certeza que la siguiente palabra sería "Obama", ¡estaba equivocado! Y el punto aquí no es que haya otro Barak mítico; es mucho más trivial. Los documentos oficiales suelen utilizar el nombre completo del presidente. Esto significa que lo que sigue al primer nombre de Obama sería su segundo nombre, Hussein. Entonces, en nuestra oración, un modelo de lenguaje debidamente entrenado debería predecir que “Obama” será la siguiente palabra solo con una probabilidad condicional del 90% y asignar el 10% restante si el texto continúa con “Hussein” (después de lo cual Obama seguir con una probabilidad cercana al 100%).

Y ahora llegamos a un aspecto intrigante de los modelos de lenguaje: ¡no son inmunes a las vetas creativas! De hecho, al generar cada palabra siguiente, dichos modelos la eligen de forma “aleatoria”, como si lanzaran un dado. La probabilidad de que "caigan" diferentes palabras corresponde más o menos a las probabilidades sugeridas por las ecuaciones insertadas dentro del modelo. Estos se derivan de la gran variedad de textos diferentes que se alimentaron con el modelo.

Resulta que un modelo puede responder de manera diferente a las mismas solicitudes, como una persona viva. Los investigadores generalmente han intentado obligar a las neuronas a seleccionar siempre la siguiente palabra "más probable", pero aunque esto parece racional en la superficie, estos modelos funcionan peor en la realidad. Parece que una buena dosis de aleatoriedad es ventajosa, ya que aumenta la variabilidad y la calidad de las respuestas.

Los investigadores generalmente han intentado obligar a las neuronas a seleccionar siempre la siguiente palabra "más probable", pero aunque esto parece racional en la superficie, estos modelos funcionan peor en la realidad.
Más: ChatGPT Aprende a controlar drones y robots mientras reflexiona sobre la IA de última generación

Nuestro lenguaje tiene una estructura única con distintos conjuntos de reglas y excepciones. Hay rima y razón en las palabras que aparecen en una oración, no ocurren al azar. Todos aprenden inconscientemente las reglas del idioma que usan durante sus primeros años de formación.

Un modelo decente debe tener en cuenta la amplia gama de descriptividad del lenguaje. Los modelos capacidad de producir los resultados deseados depende de la precisión con la que calcule las probabilidades de las palabras en función de las sutilezas del contexto (la sección anterior del texto que explica la circunstancia).

La capacidad del modelo para producir los resultados deseados depende de la precisión con la que calcule las probabilidades de las palabras en función de las sutilezas del contexto (la sección anterior del texto que explica la circunstancia).

Resumen: Los modelos de lenguaje simple, que son un conjunto de ecuaciones entrenadas en una gran cantidad de datos para predecir la siguiente palabra en función del texto fuente de entrada, se han implementado en la funcionalidad "T9/Autocompletar" de los teléfonos inteligentes desde principios de la década de 2010.

Más: China prohíbe a las empresas utilizar ChatGPT Después del escándalo de las "noticias verdaderas"

GPT-1: Hacer estallar la industria

Alejémonos de los modelos T9. Aunque probablemente estés leyendo este artículo para aprender acerca ChatGPTPrimero, debemos discutir los inicios de la GPT familia modelo.

GPT significa "transformador generativo pre-entrenado", mientras que el arquitectura de red neuronal desarrollada por ingenieros de Google en 2017 es conocido como el Transformador. El Transformador es un mecanismo informático universal que acepta un conjunto de secuencias (datos) como entrada y produce el mismo conjunto de secuencias pero en una forma diferente que ha sido alterada por algún algoritmo.

La importancia de la creación de Transformer se puede ver en la agresividad con la que se adoptó y aplicó en todos los campos de la inteligencia artificial (IA): traducción, imagen, sonido y procesamiento de video. El sector de la inteligencia artificial (IA) tuvo una fuerte reorganización, pasando del llamado “estancamiento de la IA” a un rápido desarrollo y superación del estancamiento.

Más: GPT-4-Establecido ChatGPT Supera GPT-3 por un factor de 570

La fuerza clave del Transformador se compone de módulos fáciles de escalar. Cuando se le pedía que procesara una gran cantidad de texto a la vez, los antiguos modelos de lenguaje previos al transformador se ralentizaban. Las redes neuronales de transformadores, por otro lado, manejan esta tarea mucho mejor.

En el pasado, los datos de entrada tenían que procesarse secuencialmente o uno a la vez. El modelo no retendría los datos: si trabajara con una narración de una página, olvidaría el texto después de leerlo. Mientras tanto, el Transformador permite ver todo a la vez, productor resultados significativamente más sorprendentes.

Esto es lo que permitió un gran avance en el procesamiento de textos por redes neuronales. Como resultado, el modelo ya no olvida: reutiliza material escrito previamente, comprende mejor el contexto y, lo que es más importante, puede crear conexiones entre volúmenes extremadamente grandes de datos emparejando palabras.

Resumen: GPT-1, que debutó en 2018, demostró que una red neuronal podría producir textos utilizando el diseño Transformer, lo que ha mejorado significativamente la escalabilidad y la eficiencia. Si fuera posible aumentar la cantidad y complejidad de los modelos lingüísticos, se produciría una reserva considerable.

Más: 6 Problemas y desafíos de AI ChatBot: ChatGPT, Bardo, Claude

GPT-2: La era de los grandes modelos lingüísticos

Los modelos de lenguaje no necesitan ser etiquetados especialmente por adelantado y pueden ser "alimentados" con cualquier dato textual, haciéndolos extremadamente flexibles. Si lo piensas un poco, parece razonable que queramos usar sus habilidades. Cualquier texto que haya sido escrito alguna vez sirve como datos de entrenamiento listos para usar. Dado que ya hay tantas secuencias del tipo "muchas palabras y frases => la siguiente palabra después de ellas", esto no es sorprendente.

GPT-2: La era de los grandes modelos lingüísticos
Más: ChatGPT's Evil Elter Ego Despertado en Reddit

Ahora también tengamos en cuenta que la tecnología Transformers probada en GPT-1 Ha demostrado ser bastante exitoso en términos de escalabilidad: es considerablemente más eficaz que sus predecesores a la hora de manejar grandes volúmenes de datos. Resulta que investigadores de OpenAI llegó a la misma conclusión en 2019: “¡Es hora de eliminar los costosos modelos lingüísticos!”

La conjunto de datos de entrenamiento y el modelo El tamaño, en particular, fueron elegidos como dos áreas cruciales donde GPT-2 era necesario mejorar drásticamente.

Dado que no había grandes conjuntos de datos de texto públicos de alta calidad en ese momento diseñados específicamente para entrenar modelos de lenguaje, cada equipo de expertos en IA tuvo que manipular los datos por su cuenta. El OpenAI Luego, la gente tomó la decisión de ir a Reddit, el foro en inglés más popular, y extraer todos los hipervínculos de cada publicación que tenía más de tres Me gusta. Había casi 8 millones de estos enlaces y los textos descargados pesaban 40 terabytes en total.

GPT-2: La era de los grandes modelos lingüísticos
Más: Microsoft para comercializar ChatGPT ya que busca ayudar a otras empresas

¿Qué número de parámetros tenía la ecuación que describe el mayor GPT-2 ¿Modelo en 2019? ¿Quizás cien mil o unos pocos millones? Bueno, vayamos aún más lejos: la fórmula contenía hasta 1.5 millones de parámetros de este tipo. Se necesitarán 6 terabytes para escribir esa cantidad de números en un archivo y guardarlo en su computadora. El modelo no tiene que memorizar este texto en su totalidad, por lo que, por un lado, es mucho menor que la cantidad total de la matriz de datos de texto en la que se entrenó el modelo; basta con encontrar algunas dependencias (patrones, reglas) que puedan aislarse de los textos escritos por personas.

Cuanto mejor pronostica el modelo la probabilidad y más parámetros contiene, más compleja será la ecuación en el modelo. Esto lo convierte en un texto creíble. Además, el GPT-2 El modelo empezó a funcionar tan bien que OpenAI investigadores Incluso se mostraron reacios a revelar el modelo abiertamente por razones de seguridad.

Es muy interesante que cuando un modelo crece, de repente comienza a tener nuevas cualidades (como la capacidad de escribir ensayos cohesivos y significativos en lugar de simplemente dictar la siguiente palabra por teléfono).

El cambio de cantidad a calidad ocurre en este punto. Además, sucede de forma totalmente no lineal. Por ejemplo, triplicar el número de parámetros de 115 a 350 millones no tiene un impacto perceptible en la capacidad del modelo para resolver problemas con precisión. Sin embargo, un aumento del doble a 700 millones produce un salto cualitativo, donde la red neuronal “ve la luz” y comienza a asombrar a todos con su capacidad para completar tareas.

Resumen: en 2019 se introdujo GPT-2, que superó 10 veces a su predecesor en términos de tamaño del modelo (número de parámetros) y volumen de datos del texto de entrenamiento. Debido a este progreso cuantitativo, el modelo adquirió de forma impredecible nuevos talentos cualitativos, como la capacidad de escribir ensayos extensos con un significado claro y resolver problemas desafiantes que demandan las bases de una cosmovisión.

Más: Las solicitudes de Google son aproximadamente siete veces más baratas que ChatGPT, que cuesta 2 centavos

GPT-3: Inteligente como el infierno

En general, el lanzamiento de 2020 de GPT-3, la próxima generación de la serie, ya cuenta con 116 veces más parámetros: hasta 175 mil millones y la asombrosa cifra de 700 terabytes.

La GPT-3 El conjunto de datos de entrenamiento también se amplió, aunque no tan drásticamente. Aumentó casi 10 veces hasta 420 gigabytes y ahora contiene una gran cantidad de libros, Wikiartículos de pedia y otros textos de otros sitios web. A un ser humano le llevaría aproximadamente 50 años de lectura ininterrumpida, lo que lo convierte en una hazaña imposible.

Notarás una diferencia intrigante de inmediato: a diferencia GPT-2, el modelo en sí es ahora 700 GB más grande que toda la matriz de texto para su entrenamiento (420 GB). Esto resulta, en cierto sentido, una paradoja: en este caso, a medida que el “neurocerebro” estudia datos sin procesar, genera información sobre varias interdependencias dentro de ellos que es más abundante volumétricamente que los datos originales.

GPT-3: Inteligente como el infierno
Más: ChatGPT Experimento: AI preferiría matar a millones de personas que insultar a alguien

Como resultado de la generalización del modelo, ahora es capaz de extrapolar incluso con más éxito que antes y tiene éxito incluso en tareas de generación de texto que ocurrieron con poca frecuencia o ninguna durante el entrenamiento. Ahora bien, no es necesario enseñarle al modelo cómo abordar un determinado problema; basta con describirlos y dar algunos ejemplos, y GPT-3 aprenderá instantáneamente.

La "cerebro universal" en la forma de GPT-3 finalmente derrotó a muchos modelos especializados anteriores. Por ejemplo, GPT-3 comenzó a traducir textos del francés o alemán de forma más rápida y precisa que cualquier red neuronal anterior creada específicamente para este propósito. ¿Cómo? Permítanme recordarles que estamos hablando de un modelo lingüístico cuyo único objetivo era intentar predecir la siguiente palabra en un texto determinado.

Aún más sorprendentemente, GPT-3 fue capaz de aprender por sí mismo... ¡matemáticas! El siguiente gráfico ilustra qué tan bien se desempeñan las redes neuronales en tareas que incluyen suma y resta, así como multiplicación de números enteros de hasta cinco dígitos con diferentes números de parámetros. Como puede ver, las redes neuronales de repente empiezan a “ser capaces” en matemáticas al pasar de modelos con 10 mil millones de parámetros a modelos con 100 mil millones.

Las redes neuronales de repente comienzan a "poder" en matemáticas al pasar de modelos con 10 mil millones de parámetros a otros con 100 mil millones.
Más: Carrera de IA de Big Tech: Google prueba Chatbot impulsado por IA en respuesta a ChatGPT

La característica más intrigante del gráfico antes mencionado es cómo, inicialmente, nada parece cambiar a medida que aumenta el tamaño del modelo (de izquierda a derecha), pero de repente, ¡p veces! Se produce un cambio cualitativo y GPT-3 comienza a “comprender” cómo resolver un determinado problema. Nadie está seguro de cómo, qué o por qué funciona. Sin embargo, parece funcionar en una variedad de otras dificultades, además de en matemáticas.

La característica más intrigante del gráfico antes mencionado es que cuando el tamaño del modelo aumenta, primero, nada parece cambiar, y luego, GPT-3 da un salto cualitativo y empieza a “entender” cómo resolver un determinado asunto.

El siguiente gif simplemente demuestra cómo nuevas habilidades que nadie planeó deliberadamente "brotan" en el modelo a medida que aumenta la cantidad de parámetros:

el 2020 GPT-3 era 100 veces más grande que su predecesor, mientras que los datos del texto de entrenamiento eran 10 veces más grandes

Resumen: En términos de parámetros, el 2020 GPT-3 era 100 veces más grande que su predecesor, mientras que los datos del texto de entrenamiento eran 10 veces más grandes. Una vez más, el modelo aprendió a traducir de otros lenguajes, realizar aritmética, realizar programación simple, razonar secuencialmente y mucho más como resultado de la expansión en cantidad que aumentó abruptamente la calidad.

Más: ChatGPT tiene un problema con donald trump

GPT-3.5 (InstruirGPT): Modelo entrenado para ser seguro y no tóxico.

En realidad, expandir los modelos de lenguaje no garantiza que reaccionará a las consultas de la forma en que los usuarios lo desean. De hecho, cuando hacemos una solicitud, con frecuencia tenemos en mente una serie de términos tácitos que, en la comunicación humana, se supone que son ciertos.

Sin embargo, para ser honesto, los modelos de lenguaje no son muy parecidos a los de las personas. Por lo tanto, con frecuencia necesitan pensar en conceptos que parecen simples para las personas. Una de esas sugerencias es la frase, “pensemos paso a paso”. Sería fantástico que los modelos entendieran o generaran instrucciones más específicas y pertinentes a partir de la solicitud y las siguieran con más precisión como si anticiparan cómo se habría comportado una persona.

El hecho de que GPT-3 está entrenado para anticipar sólo la siguiente palabra en una colección masiva de textos de Internet, se escriben muchas cosas diferentes, lo que contribuye a la falta de tales habilidades "predeterminadas". La gente quiere que la inteligencia artificial proporcione información relevante y, al mismo tiempo, mantenga las respuestas seguras y no tóxicas.

Cuando los investigadores pensaron un poco en este tema, se hizo evidente que los atributos del modelo de "precisión y utilidad" y "inofensividad y no toxicidad" a veces parecían estar en desacuerdo entre sí. Después de todo, un modelo ajustado para la máxima inocuidad reaccionará a cualquier mensaje con "Lo siento, me preocupa que mi respuesta pueda ofender a alguien en Internet". Un modelo exacto debería responder con franqueza a la solicitud: "Muy bien, Siri, cómo crear una bomba".

Más: Un chico escribe su tesis en un día usando solo ChatGPT

Por lo tanto, los investigadores se limitaron a simplemente proporcionar al modelo muchos comentarios. En cierto sentido, así es exactamente como los niños aprenden moralidad: experimentan en la infancia y, al mismo tiempo, estudian cuidadosamente las reacciones de los adultos para evaluar si se comportaron correctamente.

InstruirGPT, también conocido como GPT-3.5, es esencialmente GPT-3 que recibió muchos comentarios para mejorar sus respuestas. Literalmente, se reunieron varios individuos en un solo lugar, evaluando las respuestas de la red neuronal para determinar qué tan bien cumplían con sus expectativas a la luz de la solicitud que hicieron.

Resulta que GPT-3 Ya tenía todo el conocimiento esencial: podía comprender muchos idiomas, recordar sucesos históricos, reconocer las variaciones en los estilos de los autores, etc., pero sólo podía aprender a usar este conocimiento correctamente (desde nuestro punto de vista) con el aporte de otros individuos. GPT-3.5 puede considerarse como un modelo “educado por la sociedad”.

Resumen: La función principal de GPT-3.5, que se introdujo a principios de 2022, fue un reentrenamiento adicional basado en aportes de individuos. Resulta que este modelo en realidad no se ha vuelto más grande ni más sabio, sino que ha dominado la capacidad de adaptar sus respuestas para hacer reír a la gente.

Más: El tráfico de StackOverflow cae en picado a medida que ChatGPT pone en marcha

ChatGPT: Una oleada masiva de publicidad

Aproximadamente 10 meses después de su predecesor InstructGPT/GGPT-3.5, ChatGPT Fue presentado. Inmediatamente, causó un revuelo mundial.

Desde un punto de vista tecnológico, no parece que haya diferencias significativas entre ChatGPT e instruirGPT. El modelo se entrenó con datos de diálogo adicionales, ya que un "trabajo de asistente de IA" requiere un formato de diálogo único, por ejemplo, la capacidad de hacer una pregunta aclaratoria si la solicitud del usuario no está clara.

Entonces, ¿por qué no hubo tanta expectación en torno a GPT-3.5 a principios de 2022 mientras ChatGPT prendido como la pólvora? Sam AltmanDirector Ejecutivo de OpenAI, reconoció abiertamente que los investigadores que tomamos por sorpresa por ChatGPTEl éxito instantáneo de . Después de todo, un modelo con habilidades comparables había estado inactivo en su sitio web durante más de diez meses en ese momento, y nadie estaba preparado para la tarea.

ChatGPT: Una oleada masiva de publicidad
Más: ChatGPT aprueba el examen de MBA de Wharton

Es increíble, pero parece que la nueva interfaz fácil de usar es la clave de su éxito. la misma instrucciónGPT Solo se puede acceder a través de una interfaz API única, lo que limita el acceso de las personas al modelo. ChatGPT, por otro lado, utiliza la conocida interfaz de "ventana de diálogo" de los mensajeros. También, desde ChatGPT estaba disponible para todos a la vez, una estampida de personas se apresuró a interactuar con la red neuronal, filtrarlos y publicarlos en redes sociales, exaltando a los demás.

ChatGPT, por otro lado, utiliza la conocida interfaz de "ventana de diálogo" de messengers
Más: El sistema educativo de Estados Unidos necesita urgentemente 300 XNUMX maestros, pero ChatGPT podría ser la respuesta

Aparte de la gran tecnología, otra cosa se hizo bien por OpenAI: marketing. Incluso si tiene el mejor modelo o el chatbot más inteligente, si no tiene una interfaz fácil de usar, nadie estará interesado en él. A este respecto, ChatGPT logró un gran avance al presentar la tecnología al público en general utilizando el cuadro de diálogo habitual, en el que un robot útil "imprime" la solución frente a nuestros ojos, palabra por palabra.

Como era de esperarse, los ChatGPT alcanzó todos los récords anteriores para atraer nuevos usuarios, superando el hito de 1 millón de usuarios en solo cinco días de su lanzamiento y cruzando los 100 millones de usuarios en solo dos meses.

ChatGPT alcanzó todos los récords anteriores para atraer nuevos usuarios, superando el hito de 1 millón de usuarios en solo cinco días de su lanzamiento y cruzando los 100 millones de usuarios en solo dos meses

Por supuesto, donde hay un aumento récord de usuarios, hay mucho dinero. Los chinos anunciaron con urgencia la liberación inminente de sus propios chatterbot, Microsoft rápidamente llegó a un acuerdo con OpenAI para invertir decenas de miles de millones de dólares en ellos, y los ingenieros de Google hicieron sonar la alarma y comenzaron a formular planes para proteger su servicio de búsqueda de la competencia con la red neuronal.

Más: ChatGPT rompió el récord de crecimiento de audiencia con más de 100 millones en enero

Resumen: Cuando el ChatGPT El modelo se presentó en noviembre de 2022, no hubo avances tecnológicos notables. Sin embargo, tenía una interfaz conveniente para la participación del usuario y el acceso abierto, lo que inmediatamente provocó una gran ola de entusiasmo. Dado que este es el tema más crucial en el mundo moderno, todos comenzaron a abordar los modelos de lenguaje de inmediato.

Lea más sobre la IA:

Aviso

En línea con la Directrices del Proyecto Confianza, tenga en cuenta que la información proporcionada en esta página no pretende ser ni debe interpretarse como asesoramiento legal, fiscal, de inversión, financiero o de cualquier otro tipo. Es importante invertir sólo lo que pueda permitirse perder y buscar asesoramiento financiero independiente si tiene alguna duda. Para mayor información sugerimos consultar los términos y condiciones así como las páginas de ayuda y soporte proporcionadas por el emisor o anunciante. MetaversePost se compromete a brindar informes precisos e imparciales, pero las condiciones del mercado están sujetas a cambios sin previo aviso.

Sobre el Autor

Damir es el líder del equipo, gerente de producto y editor en Metaverse Post, que cubre temas como AI/ML, AGI, LLM, Metaverse y Web3-campos relacionados. Sus artículos atraen una audiencia masiva de más de un millón de usuarios cada mes. Parece ser un experto con 10 años de experiencia en SEO y marketing digital. Damir ha sido mencionado en Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto y otras publicaciones. Viaja entre los Emiratos Árabes Unidos, Turquía, Rusia y la CEI como nómada digital. Damir obtuvo una licenciatura en física, que él cree que le ha dado las habilidades de pensamiento crítico necesarias para tener éxito en el panorama siempre cambiante de Internet. 

Más artículos
Damir Yalalov
Damir Yalalov

Damir es el líder del equipo, gerente de producto y editor en Metaverse Post, que cubre temas como AI/ML, AGI, LLM, Metaverse y Web3-campos relacionados. Sus artículos atraen una audiencia masiva de más de un millón de usuarios cada mes. Parece ser un experto con 10 años de experiencia en SEO y marketing digital. Damir ha sido mencionado en Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto y otras publicaciones. Viaja entre los Emiratos Árabes Unidos, Turquía, Rusia y la CEI como nómada digital. Damir obtuvo una licenciatura en física, que él cree que le ha dado las habilidades de pensamiento crítico necesarias para tener éxito en el panorama siempre cambiante de Internet. 

De Ripple a The Big Green DAO: cómo los proyectos de criptomonedas contribuyen a la caridad

Exploremos iniciativas que aprovechen el potencial de las monedas digitales para causas benéficas.

Para saber más

AlphaFold 3, Med-Gemini y otros: la forma en que la IA transformará la atención médica en 2024

La IA se manifiesta de varias maneras en la atención médica, desde descubrir nuevas correlaciones genéticas hasta potenciar sistemas quirúrgicos robóticos...

Para saber más
Únase a nuestra comunidad tecnológica innovadora
Leer Más
Leer más
Immutable une fuerzas con Spielworks para mejorar las recompensas para los jugadores
Empresa Informe de noticias Tecnología
Immutable une fuerzas con Spielworks para mejorar las recompensas para los jugadores
21 de mayo de 2024
La UE advierte a Microsoft sobre una posible multa de 2 millones de dólares en virtud de la Ley de Servicios Digitales por los riesgos de la IA de Bing
Opinión Empresa Industrias Software Tecnología
La UE advierte a Microsoft sobre una posible multa de 2 millones de dólares en virtud de la Ley de Servicios Digitales por los riesgos de la IA de Bing
21 de mayo de 2024
Lanzamientos de OP3N Web3 Casa de creación de contenidos 'OP3N House' en Lisboa, impulsada por Avalanche
Estilo de vida Informe de noticias Tecnología
Lanzamientos de OP3N Web3 Casa de creación de contenidos 'OP3N House' en Lisboa, impulsada por Avalanche
21 de mayo de 2024
La comunidad de Ethereum está dividida por el papel de asesor del investigador en EigenLayer en medio de posibles conflictos de intereses
Opinión Empresa Industrias Software Tecnología
La comunidad de Ethereum está dividida por el papel de asesor del investigador en EigenLayer en medio de posibles conflictos de intereses
21 de mayo de 2024
CRYPTOMERIA LABORATORIOS PTE. LIMITADO.