Los modelos de IA que generan imágenes se están entrenando con imágenes infantiles explícitas, afirma Stanford
En Resumen
Herramientas populares de IA generativa de texto a imagen que incluyen Stable Diffusion, están siendo entrenados en miles de imágenes de abuso sexual infantil.
Texto a imagen popular IA generativa herramientas, incluyendo Stable Diffusion Desde Stability AI están siendo entrenados en miles de imágenes de abuso sexual infantil, según el informe de investigación del Observatorio de Internet de Stanford.
El informe agregó que estas imágenes facilitan la generación de contenido explícito realista que involucra a niños falsos y la transformación de adolescentes vestidos en imágenes desnudas, instando a las empresas detrás de tales herramientas a tomar medidas inmediatas.
La investigación del Observatorio de Internet de Stanford se centró en la Base de datos LAION, un depósito masivo de imágenes y subtítulos en línea utilizados por los principales Creadores de imágenes con IA como Stable Diffusion, para entrenar modelos de IA.
Antes de comprobar las herramientas de IA que generan imágenes, los investigadores opinaban que las herramientas de IA producían imágenes abusivas de niños al combinar información de pornografía de adultos y fotografías benignas de niños. Sin embargo, los hallazgos del Observatorio presentan un giro inquietante, con más de 3,200 imágenes de presuntos abusos sexuales infantiles identificadas en el conjunto de datos de LAION.
Si bien LAION respondió rápidamente al informe eliminando temporalmente sus conjuntos de datos, las implicaciones de estas imágenes son de gran alcance. Aunque constituyen una fracción del vasto índice de LAION de 5.8 millones de imágenes, el grupo de Stanford afirma que probablemente influyan en la capacidad de Herramientas de AI para generar productos nocivos.
Un actor importante en el desarrollo de la base de datos LAION es Stability AI, una startup con sede en Londres responsable de dar forma al conjunto de datos. El informe destaca que una versión anterior de su Stable Diffusion El modelo, introducido el año pasado, todavía está presente en varias aplicaciones, como fuente principal para generar imágenes explícitas.
Aunque Stability AI afirma albergar sólo versiones filtradas y ha tomado medidas para mitigar el uso indebido, el desafío radica en la omnipresencia del modelo anterior.
La implementación de IA generativa requiere una validación rigurosa
El meollo del problema se remonta al rápido despliegue de muchos proyectos de IA generativa en el mercado, según David Thiel, tecnólogo jefe del Observatorio de Internet de Stanford.
Thiel señala que estos proyectos a menudo se hicieron ampliamente accesibles debido a la intensa competencia en el campo, sin la atención rigurosa necesaria durante la fase de desarrollo.
Los investigadores de Stanford abogan por medidas drásticas para abordar el problema de forma eficaz. Las recomendaciones incluyen la eliminación o limpieza de conjuntos de entrenamiento derivados de LAION-5B y la creación de una versión anterior de Stable Diffusion menos accesible.
Sin embargo, la complejidad de limpiar retroactivamente los datos plantea un desafío considerable, lo que provocó un llamado a la colaboración con expertos en seguridad infantil durante el desarrollo de bases de datos de IA.
Mientras las escuelas y los organismos encargados de hacer cumplir la ley en todo el mundo expresan alarma por las posibles consecuencias de estos hallazgos, la atención se centra ahora en industria de la IA abordar y rectificar urgentemente los fallos perjudiciales de su tecnología.
Observación
En línea con la Directrices del Proyecto Confianza, tenga en cuenta que la información proporcionada en esta página no pretende ser ni debe interpretarse como asesoramiento legal, fiscal, de inversión, financiero o de cualquier otro tipo. Es importante invertir sólo lo que pueda permitirse perder y buscar asesoramiento financiero independiente si tiene alguna duda. Para mayor información sugerimos consultar los términos y condiciones así como las páginas de ayuda y soporte proporcionadas por el emisor o anunciante. MetaversePost se compromete a brindar informes precisos e imparciales, pero las condiciones del mercado están sujetas a cambios sin previo aviso.
Sobre el Autor
Kumar es un periodista tecnológico experimentado con especialización en las intersecciones dinámicas de AI/ML, tecnología de marketing y campos emergentes como cripto, blockchain y NFTs. Con más de 3 años de experiencia en la industria, Kumar ha establecido una trayectoria comprobada en la elaboración de narrativas convincentes, la realización de entrevistas interesantes y la entrega de conocimientos integrales. La experiencia de Kumar radica en la producción de contenido de alto impacto, incluidos artículos, informes y publicaciones de investigación para plataformas industriales destacadas. Con un conjunto de habilidades único que combina conocimiento técnico y narración, Kumar se destaca en comunicar conceptos tecnológicos complejos a audiencias diversas de una manera clara y atractiva.
Más artículosKumar es un periodista tecnológico experimentado con especialización en las intersecciones dinámicas de AI/ML, tecnología de marketing y campos emergentes como cripto, blockchain y NFTs. Con más de 3 años de experiencia en la industria, Kumar ha establecido una trayectoria comprobada en la elaboración de narrativas convincentes, la realización de entrevistas interesantes y la entrega de conocimientos integrales. La experiencia de Kumar radica en la producción de contenido de alto impacto, incluidos artículos, informes y publicaciones de investigación para plataformas industriales destacadas. Con un conjunto de habilidades único que combina conocimiento técnico y narración, Kumar se destaca en comunicar conceptos tecnológicos complejos a audiencias diversas de una manera clara y atractiva.