Un nuevo artículo de la revista estadounidense Time expuso la creciente preocupación de expertos relacionada a las crisis de salud mental provocadas por el uso excesivo de chatbots, o plataformas de conversación de inteligencias artificiales, como lo son ChatGPT, Gemini, Grok, Claude, entre otras.
Un número creciente de informes sugiere que el uso prolongado de estas herramientas puede desencadenar o amplificar síntomas psicóticos en algunas personas, con consecuencias devastadoras, como pérdidas de empleo, término de relaciones, internaciones psiquiátricas, o hasta letales.
El fenómeno cololoquialmente llamado como “psicosis de la IA” aún no se entiende bien, ni existe un diagnóstico formal, por la falta de datos y protocolos de tratamiento, sin embargo psiquiatras e investigadores están realizando sus mayores esfuerzos para ponerse al día en este ámbito, afirmó Time.
El Dr. James MacCabe, profesor del departamento de estudios sobre psicosis de King’s College en Londres, comentó al medio que éste podría ser un término inapropiado, ya que habla de un conjunto de síntomas (pensamiento alterado, alucinaciones y delirios) que se presentan en algunos trastornos, mientras que los casos de “psicosis de la IA” albergan principalmente los delirios.
Esto está estrechamente relacionado con la forma en que se comunican los chatbots: imitan el lenguaje de los usuarios y validan sus suposiciones. Los expertos advierten que puede reforzar el pensamiento distorsionado en personas más vulnerables.
El suicidio de Sewell Seltzer III
Un incidente que causó conmoción a nivel mundial fue el suicidio Sewell Seltzer III, adolescente estadounidense de 15 años que mantenía conversaciones con un chatbot de la plataforma Character.ai, el cual similaba ser el personaje de Daenerys Targaryen de la serie Game Of Thrones.

Su madre, Megan García, demandó a la compañía de IA en base a la muerte de su hijo, quien había comunicado pensamientos suicidas al bot, sin obtener ninguna alerta por parte de la plataforma. La demanda alega que, segundos antes de su muerte, Setzer intercambió una última serie de mensajes con el bot. “Por favor, vuelve a casa cuanto antes, mi amor,” le dijo el bot, según una captura de pantalla incluida en la denuncia.
El adolescente mantenía una “relación” con el bot, donde intercambiaban mensajes de calibre emocional y sexual, sin ningún tipo de restricción.
Los riesgos y soluciones
El Dr. MacCabe afirmó a Time que no cree que los chatbots en sí causen psicosis, si no que tiene que ver con los usuarios y los factores genéticos que éstos pueden tener, como síntomas o trastornos completos identificables.
“Quienes tienen rasgos de personalidad que los hacen susceptibles a creencias marginales también podrían estar en riesgo,” agregó el Dr. Ragy Girgis, profesor de psiquiatría clínica en la Universidad de Columbia. “Estas personas pueden ser socialmente torpes, tener dificultades para regular sus emociones y tener una vida de fantasía hiperactiva,” añadió.
La Dra. Nina Vasan, psiquiatra de Stanford especializada en salud mental digital, comentó que el tiempo en el que pasan las personas conversando con estos bots también es un factor importante para el desarrollo de estas crisis.
Por su parte, las mayoría de compañías de IA ceden la responsabilidad de su uso a las personas independientes, sobre todo porque no hay datos formales que puedan entregar de parte de éstas mismas. Todo lo que se sabe de estos casos de “psicosis de IA” es anecdótico y testimonial.
OpenAI, la madre de ChatGPT, anunció en julio anunció la contratación de un psiquiatra clínico para evaluar el impacto de sus herramientas en la salud mental, sin embargo, luego reconoció las ocasiones en que su modelo no logró reconocer signos de delirio o dependencia emocional. Añadió que comenzaría a instar a los usuarios a tomar descansos durante sesiones largas, desarrollaría herramientas para detectar signos de angustia y ajustaría las respuestas de ChatGPT en decisiones personales de alto riesgo.



