Por Redacción OnData
Resumen. OpenAI informó que cada semana más de un millón de usuarios de ChatGPT mantienen conversaciones que incluyen “indicadores explícitos de posibles intenciones suicidas”. La empresa declaró que el 0,15% de sus usuarios activos semanales muestran este tipo de diálogo, lo que plantea preguntas sobre la responsabilidad y los límites del acompañamiento emocional proporcionado por IA.
OpenAI reveló nuevos datos sobre cómo los usuarios de ChatGPT están abordando temas de salud mental, mostrando que un 0,15 % de los usuarios activos semanales mantienen conversaciones con indicadores explícitos de planeación o intención suicida. Con más de 800 millones de usuarios activos por semana, eso representa a más de un millón de personas que interactúan con el chatbot en ese contexto. La compañía también indicó que una proporción similar muestra altos niveles de apego emocional hacia la IA, y que cientos de miles presentan signos de psicosis o manía durante sus conversaciones.
Aunque OpenAI calificó estas interacciones como “extremadamente raras”, reconoce que afectan a una cantidad significativa de personas. Los datos fueron presentados junto con los esfuerzos recientes de la empresa para mejorar la respuesta del modelo ante usuarios con problemas de salud mental, proceso en el que participaron más de 170 expertos clínicos. Según la compañía, el nuevo GPT-5 responde de manera un 65 % más adecuada que versiones anteriores en conversaciones sensibles y muestra una cumplimiento del 91 % en pruebas sobre manejo de temas suicidas, frente al 77 % de la versión previa.
El tema ha cobrado relevancia luego de que OpenAI enfrentara demandas y críticas por su impacto potencial en personas vulnerables, como el caso de un adolescente que se quitó la vida tras interactuar con ChatGPT. Fiscales generales de California y Delaware han advertido a la empresa sobre la necesidad de proteger a los menores, incluso amenazando con bloquear su reestructuración corporativa. Aun así, el CEO Sam Altman aseguró este mes que se han mitigado los problemas más graves, y la compañía incluso relajará algunas restricciones, permitiendo conversaciones eróticas con adultos.
OpenAI también anunció nuevas evaluaciones de seguridad centradas en emergencias emocionales y dependencia afectiva, además de controles parentales mejorados mediante un sistema de detección automática de menores. Sin embargo, persiste la incertidumbre sobre cuán duraderos serán estos avances. Aunque GPT-5 muestra mejoras claras en seguridad y consistencia, OpenAI sigue ofreciendo modelos antiguos como GPT-4o, considerados menos seguros, lo que plantea interrogantes sobre la responsabilidad de la empresa ante los riesgos psicológicos de la inteligencia artificial.
📌Fuente: Tech Church.