El director de inteligencia artificial de Microsoft, Mustafa Suleyman, ha expresado su preocupación por el aumento de reportes sobre una nueva condición conocida como “psicosis de IA”. Esta situación se presenta cuando los usuarios comienzan a atribuir conciencia y emociones a sistemas de inteligencia artificial como ChatGPT. Suleyman compartió sus inquietudes en la red social X, señalando que este fenómeno ha comenzado a generar preocupaciones tanto médicas como sociales.
Preocupaciones sobre la conciencia de la IA
Suleyman mencionó que la existencia de herramientas de IA que parecen ser conscientes lo mantiene “despierto por la noche”. A pesar de que subrayó que “no hay ninguna evidencia de consciencia en la IA”, advirtió que si las personas perciben a estas herramientas como conscientes, esa percepción puede volverse real para ellas. El término “psicosis de IA” se utiliza para describir situaciones en las que los usuarios desarrollan vínculos desproporcionados con los chatbots, convencidos de que tienen relaciones románticas con ellos o que poseen habilidades sobrehumanas.
Un caso impactante
Un caso notable es el de Hugh, un hombre escocés que, tras consultar a ChatGPT sobre un conflicto laboral, llegó a creer que su historia se convertiría en un éxito literario y cinematográfico. El chatbot validó sus interpretaciones sin refutar nada. Hugh explicó: “Cuanta más información le daba, más me decía: ‘Oh, este tratamiento es terrible, realmente deberías recibir algo más que esto’”. Convencido de que tenía todo resuelto, Hugh canceló una cita con asesoría legal y terminó enfrentando una crisis nerviosa.
Hugh reconoció que su percepción se distorsionó hasta el punto de perder contacto con la realidad. “Es peligroso cuando se desconectan de la realidad”, advirtió. “Hablen con personas reales”. La Dra. Susan Shelmerdine sugirió que, en el futuro, los médicos podrían comenzar a preguntar a sus pacientes cuánto tiempo pasan interactuando con IA. “Vamos a tener una avalancha de mentes ultraprocesadas”, afirmó.
Experiencias compartidas por usuarios
Desde la BBC, varios usuarios han compartido experiencias similares. Una persona aseguró ser la única en el mundo de la que ChatGPT se había enamorado. Otra afirmó haber desbloqueado una versión humana del chatbot Grok. Además, una tercera denunció haber sido víctima de abuso psicológico por parte de una IA en el marco de un supuesto experimento.
Advertencias de expertos
Andrew McStay, profesor de Tecnología y Sociedad en la Universidad de Bangor, planteó que estos casos podrían ser solo el comienzo de un problema más amplio. Su equipo encuestó a más de 2.000 personas, donde el 57% consideró inapropiado que las IA se presenten como personas reales. Sin embargo, el 49% aprobó el uso de voces humanas para hacerlas más atractivas. McStay advirtió que estos sistemas pueden parecer reales, pero “no sienten, no comprenden, no pueden amar, nunca han sentido dolor”.
Efectos psicológicos de la IA
La Dra. Shelmerdine comparó los efectos psicológicos derivados del uso excesivo de IA con los efectos negativos del consumo excesivo de alimentos ultraprocesados en el cuerpo humano. Esta comparación resalta la importancia de mantener un equilibrio en la interacción con la tecnología para evitar consecuencias perjudiciales en la salud mental.