OpenAI: La IA podría causar mucho daño a las personas, pero tratar de detener el progreso no es una opción
En Resumen
OpenAIEl documento de "Planificación para AGI y más allá" sugiere una introducción gradual y lenta de modelos más complejos e "inteligentes", organizando auditorías independientes de sistemas grandes y limitando los recursos informáticos.
OpenAI quiere que la IA esté abierta a todos por igual y cree más consistente y modelos manejables para reducir el sesgo y el comportamiento indeseable.
OpenAI publicó recientemente un documento titulado “Planificación para AGI y más allá”. Describe las ideas generales que guían las acciones de la compañía a medida que el mundo se acerca al desarrollo de AGI (inteligencia general artificial).
OpenAI with cree que si bien la IA tiene el potencial de causar un daño significativo a las personas, intentar detener el progreso no es una opción. Como resultado, debemos aprender cómo mantener esta mejora para que no se deteriore significativamente.
El documento se puede encontrar esta página. Destaquemos algunos elementos cruciales de él:
- OpenAI quiere que AGI ayude a las personas a prosperar en todos los aspectos de sus vidas, tanto económica como científicamente.
En lugar de crear una gran IA súper genial y lanzarla inmediatamente al mundo, OpenAI introducirá modelos más complicados e “inteligentes” gradualmente. La suposición es que el aumento gradual de las capacidades de la IA no sorprenderá al mundo, dando tiempo a los humanos para ajustarse, adaptar la economía y crear procedimientos para interactuar con la IA. - OpenAI invita a todas las organizaciones a adoptar formalmente el principio antes mencionado (implementar gradualmente una poderosa IA). Altman también recomienda limitar la cantidad de recursos informáticos que se pueden utilizar para entrenar modelos y establecer auditorías imparciales de los principales sistemas antes de que estén disponibles para el público en general. En lugar de participar en competiciones como "¿quién será el primero en lanzar un modelo más genial y más grande?" OpenAI pide a las empresas que trabajar juntos para mejorar la seguridad de la IA.
- OpenAI cree que es fundamental que los gobiernos estén informados sobre las carreras de entrenamiento que superan una escala particular. Este es un concepto intrigante, y nos gustaría saber más sobre el jubilación OpenAI tiene al respecto. Esta propuesta no me parece tan buena al principio.
- OpenAI intentará desarrollar modelos que sean más confiables y controlables, lo más probable es que limiten el sesgo y el comportamiento desfavorable en la IA. El enfoque adoptado por OpenAI en este caso es hacer que el modelo esté disponible para el público en general de una forma muy restringida y, al mismo tiempo, dar a los usuarios la opción de personalizarlo. Dado que los consumidores no podrán "personalizar" nada allí, no estoy seguro de cómo esto ayudará a que el modelo en su conjunto sea menos sesgado. A menos que absuelva a la firma de responsabilidad por las acciones del modelo.
En general, el documento, apunta en el camino correcto. Sin embargo, hubo un conflicto menor entre "no mostraremos de inmediato modelos geniales al público, pero hablaremos de ellos a los estados" y “la gente debe saber sobre el progreso de la IA”. En resumen, esperaremos aclaraciones detalladas de OpenAI sobre todos los temas.
Lea más sobre la IA:
Observación
En línea con la Directrices del Proyecto Confianza, tenga en cuenta que la información proporcionada en esta página no pretende ser ni debe interpretarse como asesoramiento legal, fiscal, de inversión, financiero o de cualquier otro tipo. Es importante invertir sólo lo que pueda permitirse perder y buscar asesoramiento financiero independiente si tiene alguna duda. Para mayor información sugerimos consultar los términos y condiciones así como las páginas de ayuda y soporte proporcionadas por el emisor o anunciante. MetaversePost se compromete a brindar informes precisos e imparciales, pero las condiciones del mercado están sujetas a cambios sin previo aviso.
Sobre el Autor
Damir es el líder del equipo, gerente de producto y editor en Metaverse Post, que cubre temas como AI/ML, AGI, LLM, Metaverse y Web3-campos relacionados. Sus artículos atraen una audiencia masiva de más de un millón de usuarios cada mes. Parece ser un experto con 10 años de experiencia en SEO y marketing digital. Damir ha sido mencionado en Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto y otras publicaciones. Viaja entre los Emiratos Árabes Unidos, Turquía, Rusia y la CEI como nómada digital. Damir obtuvo una licenciatura en física, que él cree que le ha dado las habilidades de pensamiento crítico necesarias para tener éxito en el panorama siempre cambiante de Internet.
Más artículosDamir es el líder del equipo, gerente de producto y editor en Metaverse Post, que cubre temas como AI/ML, AGI, LLM, Metaverse y Web3-campos relacionados. Sus artículos atraen una audiencia masiva de más de un millón de usuarios cada mes. Parece ser un experto con 10 años de experiencia en SEO y marketing digital. Damir ha sido mencionado en Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto y otras publicaciones. Viaja entre los Emiratos Árabes Unidos, Turquía, Rusia y la CEI como nómada digital. Damir obtuvo una licenciatura en física, que él cree que le ha dado las habilidades de pensamiento crítico necesarias para tener éxito en el panorama siempre cambiante de Internet.