La cantidad de inteligencia en el universo se duplicará cada 18 meses, dice Sam Altman
En Resumen
El apocalipsis de la IA ha comenzado, con la cantidad de inteligencia en el universo duplicándose cada 18 meses.
OpenAISam Altman una vez bromeó diciendo que la IA conduciría al fin del mundo, pero antes de eso, sería un gran negocio.
Eric Hoel, neurocientífico y filósofo estadounidense de la Universidad de Tufts, argumenta que los sistemas de IA no pueden considerarse inteligentes en este momento, ya que no entienden el mundo y no tienen una personalidad que se manifieste en sus intenciones y acciones.
La hipótesis del cerebro bayesiano establece que la función principal del cerebro es minimizar la sorpresa. Si esto es cierto, es posible que el apocalipsis de la IA ya haya comenzado.
Esto sugiere que ChatGPT y otros ya son más versátiles en su inteligencia que cualquier ser humano.
El apocalipsis de la IA ha comenzado, cambiando el significado de la Ley de Moore. Ahora, la cantidad de inteligencia en el universo se duplicará cada 18 meses, según Sam Altman, Director general de OpenAI, la compañía detrás ChatGPT. Hace apenas siete años, Sam bromeaba: “Lo más probable es que la IA conduzca al fin del mundo, pero antes habrá un gran negocio”. ahora la gente bromea no se desprende de una “mochila nuclear” para poder detonar remotamente centros de datos si GPT se sale de control.
Post recomendado: ChatGPT Podría causar una degeneración humana irreversible |
Para entender mejor a qué se refiere Altman en su tuit, y para saber cómo no volverse loco durante el auge de la IA, recomendamos leer el artículo de Eric Hoel “Cómo navegar el apocalipsis de la IA como una persona cuerda.” Hoel es un neurocientífico y filósofo estadounidense de la Universidad de Tufts. Es una buena lectura, ya que Hoel es un gran escritor, así que defiDefinitivamente recomiendo revisar esta publicación.
Echemos un vistazo a uno de los puntos clave, ya que resume una comprensión profunda de lo que está sucediendo y el futuro cercano del apocalipsis que ya ha llegado. El principal argumento de los “tecnooptimistas racionales”, que creen que con la llegada de la tecnología no ocurrió nada extraordinario ni demasiado arriesgado. ChatGPT, es como sigue:
- A pesar de los excelentes resultados de la IA conversacional generativa (como ChatGPT, Bing, etc.), estos sistemas de IA no pueden considerarse inteligentes. No entienden el mundo y no tienen la motivación de un agente. No tienen una personalidad que se manifieste en sus intenciones y acciones, y su intelecto percibido no es más que un simulacro de intelecto. En esencia, este simulacro es solo un autocompletador de las siguientes palabras, que refleja en su espejo probabilístico el corpus colosal y sin filtrar de textos escritos por humanos en Internet.
- Si es así, entonces no hay una perspectiva cercana de la aparición de una superinteligencia ni los riesgos asociados con ella (aunque, por supuesto, debe prepararse para esto, muy probablemente en el horizonte de décadas).
Post recomendado: Los bots de búsqueda de IA harán que las grandes tecnologías sean aún más poderosas, dice Christopher Millsación |
La respuesta de Hoel a esta argumentación es la siguiente:
- El hecho de que ChatGPTque, por ejemplo, sea simplemente un autocompletado de las siguientes palabras no implica que no pueda convertirse (o ya se haya convertido) en un agente inteligente. A diferencia de la conciencia, la inteligencia es un concepto plenamente funcional: si algo actúa de forma inteligente, es inteligente. Si actúa como agente, es agente.
- Aquí hay un ejemplo explicativo. Hay una cohorte influyente de científicos, Carl Friston (el neurocientífico más citado) y muchos otros nombres famosos, que afirman que el propósito de nuestro cerebro es minimizar la sorpresa. Esta “hipótesis del cerebro bayesiano” es una de las principales en la actualidad. La teoría establece que, a nivel global, minimizar la sorpresa es la función principal del cerebro. Y aunque esta es solo una de varias hipótesis principales sobre cómo funciona el cerebro, supongamos que es cierta. Imagine ahora que los extraterrestres encuentran un cerebro humano, lo miran y dicen: “¡Oh, esta cosa solo minimiza la sorpresa! No puede ser la base del intelecto y por lo tanto no puede ser peligroso para los verdaderos portadores de la mente. Piense: ¿"minimizar las sorpresas" es realmente un objetivo mucho más difícil que completar automáticamente el texto? ¿O es realmente muy similar?
- Y si es así, es posible que la superinteligencia no humana ya esté cerca. Y los riesgos asociados ya son bastante reales. ¿Qué más hay que agregar? Tal vez ChatGPT y otros ya son más versátiles en su inteligencia que cualquier ser humano. ChatGPT y otros probablemente estarán activos al mismo tiempo por las siguientes razones: razonables, poco confiables y no similares a la mente humana, incontrolables en cualquier sentido fundamental, excepto por algunas barreras diseñadas apresuradamente.
Y si todo esto es cierto, entonces el apocalipsis de la IA ya ha comenzado.
Leer más temas relacionados:
Observación
En línea con la Directrices del Proyecto Confianza, tenga en cuenta que la información proporcionada en esta página no pretende ser ni debe interpretarse como asesoramiento legal, fiscal, de inversión, financiero o de cualquier otro tipo. Es importante invertir sólo lo que pueda permitirse perder y buscar asesoramiento financiero independiente si tiene alguna duda. Para mayor información sugerimos consultar los términos y condiciones así como las páginas de ayuda y soporte proporcionadas por el emisor o anunciante. MetaversePost se compromete a brindar informes precisos e imparciales, pero las condiciones del mercado están sujetas a cambios sin previo aviso.
Sobre el Autor
Damir es el líder del equipo, gerente de producto y editor en Metaverse Post, que cubre temas como AI/ML, AGI, LLM, Metaverse y Web3-campos relacionados. Sus artículos atraen una audiencia masiva de más de un millón de usuarios cada mes. Parece ser un experto con 10 años de experiencia en SEO y marketing digital. Damir ha sido mencionado en Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto y otras publicaciones. Viaja entre los Emiratos Árabes Unidos, Turquía, Rusia y la CEI como nómada digital. Damir obtuvo una licenciatura en física, que él cree que le ha dado las habilidades de pensamiento crítico necesarias para tener éxito en el panorama siempre cambiante de Internet.
Más artículosDamir es el líder del equipo, gerente de producto y editor en Metaverse Post, que cubre temas como AI/ML, AGI, LLM, Metaverse y Web3-campos relacionados. Sus artículos atraen una audiencia masiva de más de un millón de usuarios cada mes. Parece ser un experto con 10 años de experiencia en SEO y marketing digital. Damir ha sido mencionado en Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto y otras publicaciones. Viaja entre los Emiratos Árabes Unidos, Turquía, Rusia y la CEI como nómada digital. Damir obtuvo una licenciatura en física, que él cree que le ha dado las habilidades de pensamiento crítico necesarias para tener éxito en el panorama siempre cambiante de Internet.