4,000 personas se sometieron a psicoterapia con robots de IA sin saberlo
En Resumen
Koko, una plataforma de salud mental sin fines de lucro, vincula a personas que necesitan ayuda con voluntarios.
Los usuarios se comunican con el bot de Koko mediante el envío de preguntas de opción múltiple.
4,000 personas recibieron apoyo psicológico sin previo aviso de OpenAI GPT-3.
El bot fue tan efectivo para proporcionar respuestas terapéuticas como un ser humano.
A través de servicios de chat como Telegram y Discord, la plataforma de salud mental sin fines de lucro Koko vincula a adolescentes y adultos que necesitan atención de salud mental con voluntarios. Los usuarios inician sesión en el servidor Discord de Koko Care y se comunican directamente con el bot de Koko enviándole preguntas de opción múltiple, como "¿Cuál es la idea más oscura que tienes sobre esto?" Luego, el bot comunica de forma anónima las preocupaciones de la persona a otro usuario en el servidor, quien luego puede responder de forma anónima con su propio mensaje breve.
Esta forma innovadora de conectar a las personas que necesitan asistencia de salud mental con voluntarios ha permitido a Koko cerrar la brecha entre quienes no han podido acceder a la ayuda que necesitan y quienes están dispuestos a ofrecerla.
Sin embargo, Rob Morris, el cofundador de Koko, tomó la decisión de evaluar a los voluntarios de psicoterapia en un bot de IA en lugar de personas reales. Aproximadamente 4,000 personas recibieron apoyo psicológico de OpenAI GPT-3, según el tweet de Morris. Los resultados de este estudio mostraron que el robot de IA era tan eficaz a la hora de proporcionar respuestas terapéuticas como un ser humano.
Parecía que la gente apreciaba el apoyo y la asistencia psicológica que GPT-3 Ofrecido. Sin embargo, tras el anuncio, Morris lo eliminó rápidamente de Telegram y Discord. ¿Por qué? Este tipo de terapia dejó de funcionar una vez que los individuos se dieron cuenta de que los mensajes eran generados por una máquina. Puede ser que la personificación de la empatía parezca extraña y vacía.
Sin embargo, algo más podría estar en juego también. El experimento de Rob Morris ha generado críticas en las redes sociales y ha sido calificado de poco ético. Después de todo, los participantes fueron engañados y no pudieron dar su consentimiento informado; en cambio, se convirtieron en participantes involuntarios en este estudio.
En un estudio científico regular, los participantes son informados sobre cómo se llevará a cabo el estudio y pueden retirar su consentimiento en cualquier momento hasta la publicación de los resultados. Aquí, ha habido un gran abuso de confianza: las personas con problemas de salud mental confiaron en la plataforma para que les brindara la ayuda de otro ser humano, todo mientras recibían ayuda de la IA. Esto no quiere decir que la ayuda per se fuera de mala calidad. Sin embargo, en cualquier entorno terapéutico, la confianza es un factor importante en los resultados futuros. Este tipo de engaño podría hacer añicos la confianza que alguna vez tuvo la gente en una plataforma muy prometedora.
El experimento de Koko destacó lo fácil que era engañar a las personas en las redes sociales, lo que generó preocupaciones de que la tecnología podría ser utilizada de manera maliciosa por personas que intentan difundir información errónea y noticias falsas. Esta vez se hizo de buena fe, pero ¿y la próxima vez?
Lea más sobre la IA:
Observación
En línea con la Directrices del Proyecto Confianza, tenga en cuenta que la información proporcionada en esta página no pretende ser ni debe interpretarse como asesoramiento legal, fiscal, de inversión, financiero o de cualquier otro tipo. Es importante invertir sólo lo que pueda permitirse perder y buscar asesoramiento financiero independiente si tiene alguna duda. Para mayor información sugerimos consultar los términos y condiciones así como las páginas de ayuda y soporte proporcionadas por el emisor o anunciante. MetaversePost se compromete a brindar informes precisos e imparciales, pero las condiciones del mercado están sujetas a cambios sin previo aviso.
Sobre el Autor
Damir es el líder del equipo, gerente de producto y editor en Metaverse Post, que cubre temas como AI/ML, AGI, LLM, Metaverse y Web3-campos relacionados. Sus artículos atraen una audiencia masiva de más de un millón de usuarios cada mes. Parece ser un experto con 10 años de experiencia en SEO y marketing digital. Damir ha sido mencionado en Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto y otras publicaciones. Viaja entre los Emiratos Árabes Unidos, Turquía, Rusia y la CEI como nómada digital. Damir obtuvo una licenciatura en física, que él cree que le ha dado las habilidades de pensamiento crítico necesarias para tener éxito en el panorama siempre cambiante de Internet.
Más artículosDamir es el líder del equipo, gerente de producto y editor en Metaverse Post, que cubre temas como AI/ML, AGI, LLM, Metaverse y Web3-campos relacionados. Sus artículos atraen una audiencia masiva de más de un millón de usuarios cada mes. Parece ser un experto con 10 años de experiencia en SEO y marketing digital. Damir ha sido mencionado en Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto y otras publicaciones. Viaja entre los Emiratos Árabes Unidos, Turquía, Rusia y la CEI como nómada digital. Damir obtuvo una licenciatura en física, que él cree que le ha dado las habilidades de pensamiento crítico necesarias para tener éxito en el panorama siempre cambiante de Internet.