Opinión Tecnología
23 de agosto de 2023

Los investigadores desafían la noción de "habilidades emergentes" de los modelos de lenguaje grandes

En Resumen

El apocalipsis de AGI es preocupante debido al fenómeno de los grandes modelos de lenguaje que repentinamente demostrando habilidades que los modelos más pequeños no parecen tener.

Este fenómeno se denomina "habilidades emergentes de los modelos de lenguaje grandes".

Los autores del artículo “¿Son las habilidades emergentes de los modelos lingüísticos grandes un espejismo?” Argumentan que el efecto de las habilidades emergentes no es un espejismo, sino más bien un crecimiento predecible en la capacidad para realizar tareas.

Muestran que al menos el 92% de los problemas de Big Bench no tienen un avance repentino para los modelos grandes, y la calidad de sus modelos crece de manera suave y predecible a medida que aumenta el tamaño de los modelos.

En un examen reciente de las capacidades potenciales de los grandes modelos lingüísticos, los investigadores cuestionan la noción de "habilidades emergentes" y arrojan luz sobre un aspecto más predecible de su funcionalidad. El artículo titulado “Revelando las realidades de las habilidades emergentes de los grandes modelos de lenguaje"Llama la atención sobre la mala interpretación de las métricas que ha llevado a la idea errónea de que estos modelos adquieren espontáneamente habilidades avanzadas.

Los investigadores desafían la noción de "habilidades emergentes" de los modelos de lenguaje grandes
Créditos: Metaverse Post / Stable Diffusion

El concepto de "habilidades emergentes”en el contexto de grandes modelos lingüísticos, como el GPT serie, ha alimentado preocupaciones sobre el potencial de estos modelos para desarrollar capacidades imprevistas similares a la conciencia humana. Este artículo afirma que estas suposiciones se han basado en una comprensión errónea del comportamiento y las capacidades reales de los modelos.

El fenómeno comúnmente observado, en el que los modelos más grandes aparentemente adquieren habilidades recién descubiertas, como el razonamiento abstracto, la resolución de problemas e incluso el humor, se ha denominado "habilidades emergentes de los modelos de lenguaje grandes". Los autores del artículo sostienen que estas habilidades no son tan espontáneas como parecen, sino más bien el resultado de métricas de evaluación engañosas.

Para ilustrar su punto, los investigadores consideran la tarea de "adivinar el acertijo", un problema en el que se requiere que el modelo de lenguaje comprenda un acertijo en lenguaje natural y responda con la respuesta correcta en lenguaje natural. Tradicionalmente, la calidad de las respuestas se ha evaluado mediante una métrica binaria: a una respuesta se le asigna una puntuación de 1 si coincide exactamente con la respuesta correcta y una puntuación de 0 en caso contrario.

El quid de la cuestión radica en la sensibilidad de la métrica a la complejidad de la tarea y al número de parámetros del modelo. Los investigadores revelan que esta métrica binaria conduce a una percepción engañosa de “habilidades emergentes”. Los modelos más pequeños a menudo exhiben una precisión insignificante (eps) en esta métrica, mientras que los modelos más grandes, particularmente aquellos con un alto recuento de parámetros, parecen alcanzar niveles de precisión notables (acc > 0.5).

El artículo sostiene que este aparente cambio en la capacidad no es indicativo de que los modelos adquieran espontáneamente habilidades complejas. En cambio, la capacidad de los modelos para comprender y generar respuestas más matizadas surge de una evaluación más meticulosa de sus resultados. Al centrarse en la coincidencia probabilística y la coherencia semántica en lugar de en las coincidencias exactas de cadenas, los investigadores muestran que la progresión de los modelos en desempeño sigue una trayectoria más lógica, independientemente de su tamaño.

Relacionado:: La evolución de los chatbots de la era T9 y GPT-1 a ChatGPT

Investigación de la evolución del rendimiento del modelo con parámetros cambiantes

Investigación de la evolución del rendimiento del modelo con parámetros cambiantes
Créditos: Metaverse Post / Stable Diffusion

En una investigación analítica, los investigadores descubren la mecánica sutil detrás de las “habilidades emergentes” percibidas de grandes modelos de lenguaje. El estudio cuestiona la influencia de las métricas superdiscretas en la evaluación del rendimiento del modelo y aclara una comprensión más predictiva de sus capacidades a medida que se expanden los parámetros del modelo.

La noción predominante de “habilidades emergentes” en modelos lingüísticos expansivos ha cautivado los debates y suscitado preocupaciones sobre posibles avances. Este estudio busca desentrañar la mecánica subyacente a este fenómeno y descifrar si estos modelos realmente exhiben capacidades repentinas y sin precedentes o si estos avances percibidos pueden atribuirse a una causa diferente.

En el centro del estudio se encuentra una evaluación meticulosa de las métricas empleadas para medir el rendimiento del modelo. Los investigadores sostienen que el uso de métricas superdiscretas, particularmente la métrica binaria convencional que determina coincidencias exactas de cadenas, podría distorsionar la interpretación de grandes habilidades de modelo de lenguaje. El estudio analiza meticulosamente cómo evoluciona la distribución de probabilidad de las respuestas generadas por el modelo a medida que escalan los parámetros del modelo.

Contrariamente a la noción de “habilidades emergentes”, el estudio revela una tendencia más sistemática. A medida que aumenta el tamaño del modelo, mejora su capacidad para asignar mayores probabilidades a las respuestas apropiadas y menores probabilidades a las incorrectas. Esto refleja una mejora constante en la capacidad del modelo para resolver problemas hábilmente en una amplia gama de tamaños. En esencia, la investigación sugiere que el proceso de aprendizaje de los modelos sigue undefitrayectoria definida de mejora en lugar de un salto repentino.

Los autores introducen un cambio de paradigma al proponer la sustitución de métricas discretas por continuas. Este cambio ofrece una imagen más clara de la evolución del rendimiento. A través de su análisis, los investigadores determinan que aproximadamente el 92% de los Problemas del banco grande exhiben un crecimiento suave y predecible en la calidad a medida que se expande el tamaño del modelo. Este hallazgo desafía la noción de que los modelos más grandes experimentan avances repentinos y, en cambio, destaca una progresión más gradual y anticipada.

El estudio amplía sus conocimientos para validar sus afirmaciones. Demuestra que el mismo efecto de "capacidad emergente" puede simularse artificialmente utilizando codificadores automáticos convencionales, lo que sugiere que la elección de métricas influye significativamente en los resultados percibidos. Esta revelación amplía el alcance de las implicaciones del estudio, demostrando su relevancia más allá de los modelos lingüísticos únicamente.

Los investigadores enfatizan que sus resultados no defiNiega nitivamente el potencial de “habilidades emergentes” o conciencia en modelos de lenguaje grandes. Sin embargo, sus hallazgos alientan a los investigadores a abordar tales afirmaciones con una perspectiva matizada. En lugar de extrapolar apresuradamente y sacar conclusiones extremas, el estudio subraya la importancia de una investigación meticulosa y un análisis exhaustivo.

Lea más sobre la IA:

Observación

En línea con la Directrices del Proyecto Confianza, tenga en cuenta que la información proporcionada en esta página no pretende ser ni debe interpretarse como asesoramiento legal, fiscal, de inversión, financiero o de cualquier otro tipo. Es importante invertir sólo lo que pueda permitirse perder y buscar asesoramiento financiero independiente si tiene alguna duda. Para mayor información sugerimos consultar los términos y condiciones así como las páginas de ayuda y soporte proporcionadas por el emisor o anunciante. MetaversePost se compromete a brindar informes precisos e imparciales, pero las condiciones del mercado están sujetas a cambios sin previo aviso.

Sobre el Autor

Damir es el líder del equipo, gerente de producto y editor en Metaverse Post, que cubre temas como AI/ML, AGI, LLM, Metaverse y Web3-campos relacionados. Sus artículos atraen una audiencia masiva de más de un millón de usuarios cada mes. Parece ser un experto con 10 años de experiencia en SEO y marketing digital. Damir ha sido mencionado en Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto y otras publicaciones. Viaja entre los Emiratos Árabes Unidos, Turquía, Rusia y la CEI como nómada digital. Damir obtuvo una licenciatura en física, que él cree que le ha dado las habilidades de pensamiento crítico necesarias para tener éxito en el panorama siempre cambiante de Internet. 

Más artículos
Damir Yalalov
Damir Yalalov

Damir es el líder del equipo, gerente de producto y editor en Metaverse Post, que cubre temas como AI/ML, AGI, LLM, Metaverse y Web3-campos relacionados. Sus artículos atraen una audiencia masiva de más de un millón de usuarios cada mes. Parece ser un experto con 10 años de experiencia en SEO y marketing digital. Damir ha sido mencionado en Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto y otras publicaciones. Viaja entre los Emiratos Árabes Unidos, Turquía, Rusia y la CEI como nómada digital. Damir obtuvo una licenciatura en física, que él cree que le ha dado las habilidades de pensamiento crítico necesarias para tener éxito en el panorama siempre cambiante de Internet. 

Crece el apetito institucional por los ETF de Bitcoin en medio de la volatilidad

Las divulgaciones a través de presentaciones 13F revelan que notables inversores institucionales incursionan en los ETF de Bitcoin, lo que subraya una creciente aceptación de...

Para saber más

Llega el día de la sentencia: el destino de CZ pende de un hilo mientras un tribunal de EE. UU. considera la petición del Departamento de Justicia

Changpeng Zhao está listo para enfrentar hoy su sentencia en un tribunal estadounidense en Seattle.

Para saber más
Únase a nuestra comunidad tecnológica innovadora
Leer Más
Leer más
BLOCKCHANCE y CONF3RENCE se unen para el más grande de Alemania Web3 Conferencia en Dortmund
Empresa Industrias Software Historias y comentarios Tecnología
BLOCKCHANCE y CONF3RENCE se unen para el más grande de Alemania Web3 Conferencia en Dortmund
9 de mayo de 2024
NuLink se lanza en Bybit Web3 Plataforma IDO. Fase de suscripción se extiende hasta el 13 de mayo
Industrias Informe de noticias Tecnología
NuLink se lanza en Bybit Web3 Plataforma IDO. Fase de suscripción se extiende hasta el 13 de mayo
9 de mayo de 2024
UXLINK y Binance colaboran en una nueva campaña que ofrece a los usuarios 20 millones de puntos UXUY y Airdrop Recompensas
Industrias Informe de noticias Tecnología
UXLINK y Binance colaboran en una nueva campaña que ofrece a los usuarios 20 millones de puntos UXUY y Airdrop Recompensas
9 de mayo de 2024
Side Protocol lanza Testnet incentivado e introduce el sistema de puntos internos, lo que permite a los usuarios ganar puntos SIDE
Industrias Informe de noticias Tecnología
Side Protocol lanza Testnet incentivado e introduce el sistema de puntos internos, lo que permite a los usuarios ganar puntos SIDE
9 de mayo de 2024
CRYPTOMERIA LABORATORIOS PTE. LIMITADO.