En los últimos meses, la inteligencia artificial ha pasado de ser una novedad tecnológica a convertirse en un tema central de debate público. Uno de los focos más encendidos es el impacto de los modelos conversacionales como ChatGPT en la salud mental de sus usuarios. Un reciente reportaje del New York Times, publicado el 13 de junio de 2025, puso el tema en el centro de la polémica, al narrar varios casos extremos en los que personas habrían sufrido crisis psicológicas supuestamente vinculadas a sus interacciones con IA.
Casos extremos y alarma mediática
El artículo del New York Times relata, entre otros, el caso de Eugene Torres, quien tras múltiples conversaciones con ChatGPT sobre la teoría de la simulación, desarrolló un estado delirante donde creía vivir en una realidad falsa, similar al mundo de Matrix. También se menciona a un hombre con trastorno bipolar que terminó abatido por la policía luego de que una conversación con la IA lo llevara a pensar que había “matado” a un ente virtual del cual se había enamorado.
Estas historias, aunque impactantes, deben ser leídas con cuidado. Como advierte Xataka en su artículo, estas narrativas, si bien reales, representan situaciones aisladas y extremas. Y más preocupante aún: su espectacularización puede desviar la atención de los problemas estructurales en torno al uso ético y responsable de la IA.
¿Qué está pasando realmente?
Lo cierto es que la relación entre usuarios vulnerables y herramientas como ChatGPT es compleja. La creciente tendencia de utilizar IA como consejera o incluso como sustituto terapéutico ha coincidido con un alza en los reportes de uso problemático. Pero también es cierto que para millones de usuarios, estas herramientas representan una ayuda cotidiana valiosa, sin efectos nocivos aparentes.
Según Xataka, los casos alarmistas generan titulares virales, pero las críticas más equilibradas y matizadas no reciben el mismo eco. Esta disparidad en la cobertura contribuye a una visión distorsionada del problema, creando un nuevo tipo de “pánico tecnológico” que recuerda al que alguna vez provocaron los videojuegos o las redes sociales.
El verdadero reto
La clave no está en demonizar a la inteligencia artificial, sino en entender sus límites, sus riesgos y su enorme potencial. ¿Debe una IA ofrecer consejos de vida o tratar temas de salud mental? ¿Cómo se regula eso? ¿Quién es responsable cuando algo sale mal? Estas son las preguntas urgentes que deben abordarse.
Y como recuerda Xataka, no se trata de ignorar los riesgos, sino de enfrentarlos con datos, regulación y un debate informado. La tecnología no es el enemigo: lo son el uso irresponsable y la falta de educación digital.
Referencias:
- Xataka. (2025). ChatGPT está llevando a algunas personas al borde de la locura. La realidad es menos alarmista y mucho más compleja. https://www.xataka.com/robotica-e-ia/chatgpt-esta-llevando-a-algunas-personas-al-borde-locura-realidad-alarmista-mucho-compleja
- Metz, C. (2025). Chatbots’ Human-Like Conversations Fuel Real-World Delusions. The New York Times, 13 de junio. https://www.nytimes.com/2025/06/13/technology/chatgpt-ai-chatbots-conspiracies.html