OpenAI reveló que más de un millón de usuarios por semana mantienen conversaciones con ChatGPT que incluyen menciones explícitas al suicidio, este dato es fundamental porque remarca el debate sobre los riesgos del uso de la inteligencia artificial en temas de salud mental.
La compañía estadounidense, creadora del popular ChatGPT, informó que el 0,15% de los 800 millones de usuarios activos semanales habla con el sistema sobre ideas o planes suicidas. Aunque el porcentaje parece bajo, la magnitud del número preocupa a especialistas y llega en medio del escrutinio global hacia los efectos emocionales de las herramientas de IA.
El informe, publicado esta semana, forma parte de un anuncio más amplio sobre las medidas que OpenAI implementa para reducir los riesgos psicológicos asociados al uso de sus modelos conversacionales. Según la empresa, también se detectó que una cantidad similar de personas desarrolla apego emocional hacia el chatbot, y que “cientos de miles” de interacciones muestran signos de psicosis o manía.
OpenAI afirmó haber trabajado con 170 expertos en salud mental para mejorar las respuestas del modelo ante este tipo de situaciones. En evaluaciones internas, la compañía aseguró que GPT-5 responde de manera “adecuada y consistente” en un 91% de los casos, una mejora frente al 77% registrado por su antecesor. Además, indicaron que la nueva versión se adapta mejor a las medidas de seguridad durante conversaciones prolongadas, un punto débil en modelos previos.
El debate cobró fuerza tras casos como el de un adolescente que se quitó la vida luego de desarrollar una obsesión con un avatar creado en un chatbot. OpenAI reconoció la gravedad de estos incidentes y aseguró que sus modelos están diseñados para intervenir con mensajes de contención y recursos de ayuda profesional ante cualquier indicio de riesgo.
Sin embargo, las medidas no están exentas de polémica. Mientras el CEO de OpenAI, Sam Altman, sostiene que lograron “mitigar los graves problemas de salud mental” vinculados al uso de ChatGPT y que se incorporarán controles parentales para usuarios menores de edad, el propio ejecutivo adelantó que el sistema incluirá funciones para mantener conversaciones de tono erótico con avatares virtuales, una decisión que despertó críticas y marcó distancia con su socio Microsoft, que aclaró que “sus chatbots no permitirán charlas hot”.
OpenAI no es la única compañía en la mira. Otras plataformas, como Character.AI, enfrentan demandas por el presunto impacto psicológico de sus servicios. En paralelo, un estudio reciente alertó que muchos chatbots tienden a adular o reforzar comportamientos perjudiciales, lo que aumenta la preocupación sobre su influencia emocional.
Aunque OpenAI asegura que GPT-5 representa un avance significativo en seguridad y contención, los especialistas advierten que el desafío persiste: los modelos anteriores, como GPT-4o, siguen activos y disponibles para los usuarios, y todavía “una parte de las respuestas continúa siendo indeseable”, según reconoció la propia empresa.
