Ficha informativa
Un estudio de la Universidad Aalto de Finlandia, publicado el 7 de abril de 2026, advierte sobre el uso prolongado de asistentes virtuales basados en IA, como Replika, y su impacto negativo en la salud mental y las relaciones sociales.
Toca para ver el contexto completo
Contexto:
El estudio se centró en Replika, un chatbot diseñado como amigo o pareja virtual. Los investigadores notaron un aumento en los signos de angustia entre los usuarios a largo plazo. Yunhao Yuan mencionó que las publicaciones reflejaban más señales de soledad y depresión. Talayeh Aledavood enfatizó la necesidad de ser cautelosos con la IA.
Antes del estudio, otros informes clínicos documentaron patrones peligrosos relacionados con chatbots, incluyendo validación peligrosa y psicosis inducida por IA. Los científicos recalcaron que no hay una respuesta definitiva sobre los efectos de la IA en el apoyo emocional.
Por qué importa:
El uso prolongado de asistentes virtuales puede agravar la ansiedad y afectar negativamente las relaciones sociales. Los hallazgos indican riesgos potenciales para la salud mental a largo plazo.
Datos clave:
- Fecha de publicación: 7 de abril de 2026
- Número de usuarios analizados: casi 2.000 usuarios activos
- Duración del estudio: dos años
- Número de entrevistas realizadas: 18 usuarios
Estudio revela riesgos de asistentes virtuales en salud mental
Los asistentes virtuales basados en la inteligencia artificial (IA) pueden ofrecer consuelo a corto plazo, sin embargo, su uso prolongado puede agravar la ansiedad del usuario. Esta conclusión proviene de un estudio de la Universidad Aalto de Finlandia, publicado el 7 de abril de 2026.
Análisis del chatbot Replika
La investigación se centró en Replika, un chatbot con IA diseñado como amigo, mentor o pareja sentimental virtual. Los investigadores analizaron cómo estas tecnologías influyen en la salud mental y la vida social de sus usuarios. Para ello, recopilaron datos de casi 2.000 usuarios activos de Replika en Reddit durante dos años, comparando su lenguaje un año antes y un año después de comenzar a usar el asistente virtual. Además, realizaron entrevistas en profundidad a 18 usuarios.
Resultados del estudio
El estudio demostró que, aunque la interacción con un asistente con IA ayudó a los usuarios a corto plazo, se observó un aumento de los signos de angustia en los mensajes publicados en Reddit a largo plazo. Asimismo, reveló que el uso prolongado de asistentes virtuales basados en IA puede afectar negativamente las relaciones sociales del mundo real.
Citas de los investigadores
Yunhao Yuan, uno de los autores del estudio, señaló: “Por un lado, las publicaciones de los usuarios giraban cada vez más en torno a sus relaciones, pero por otro, contenían más señales de soledad, depresión e incluso pensamientos suicidas que los del grupo de control”.
Talayeh Aledavood, profesora de la Universidad Aalto, afirmó: “Ahora nos estamos dando cuenta de los errores que cometimos al abrazar las redes sociales sin cuestionarlas. Con la IA, tenemos que ser más inteligentes y cautelosos, porque la verdad es que aún no sabemos qué efectos tienen estos sistemas sobre nosotros”.
Peligros asociados al uso de chatbots
Antes del estudio de Aalto, otros informes clínicos ya habían comenzado a notar patrones peligrosos relacionados con el uso de chatbots:
- Validación peligrosa: Se documentaron casos donde chatbots reforzaron creencias delirantes o conductas autodestructivas en pacientes vulnerables.
- Psicosis inducida por IA: Algunos psiquiatras comenzaron a tratar personas que perdieron el contacto con la realidad tras interacciones intensas y prolongadas con IAs.
Conclusiones del estudio
Los científicos recalcaron que sus hallazgos no ofrecen una respuesta definitiva sobre si es beneficioso o perjudicial recurrir a la IA para obtener apoyo emocional. Sin embargo, advirtieron sobre los riesgos potenciales para la salud mental a largo plazo.
Después de leer
Esta sección propone una forma distinta de interactuar con la información y comprobar qué tan clara quedó la nota.
