Por Redacción OnData
Resumen. OpenAI anunció que implementará políticas especiales para usuarios menores de 18, que incluyen evitar conversaciones coquetas («flirtatious talk»), reforzar restricciones en diálogos sobre autolesiones o suicidio, y habilitar controles parentales. Además, se desarrollará un sistema de estimación de edad para aplicar reglas más seguras ante incertidumbres.
OpenAI anunció que implementará nuevas políticas de seguridad para usuarios menores de 18 años de ChatGPT, como parte de su estrategia para proteger adolescentes. Según Sam Altman, la empresa considera que la seguridad debe prevalecer sobre la privacidad y libertad en estos casos, dado que la tecnología “es nueva y poderosa” y los menores requieren medidas especiales de salvaguardia.
Las restricciones incluyen que ChatGPT dejará de participar en “charlas coquetas” (“flirtatious talk”) con menores, y habrá barreras adicionales en conversaciones sobre autolesiones. Si un menor imagina escenarios suicidas o manifiesta indicios de daño grave, el sistema podría notificar automáticamente a los padres, y en casos extremos, a la policía.
Sam Altman outlined OpenAI’s approach to the difficult balance between teen safety, user freedom, and privacy.
— Wes Roth (@WesRothMoney) September 17, 2025
OpenAI wants adult users treated like adults with broad freedoms and strong privacy protections, while teens get stricter safeguards, including an age-prediction… pic.twitter.com/09SqUi6ziY
También se introducirá la funcionalidad de “horas de apagón” (“blackout hours”) para cuentas registradas por menores, de modo que los padres puedan establecer horarios en los que ChatGPT no esté disponible para sus hijos. Adicionalmente, OpenAI trabajará en detectar si un usuario es menor de edad mediante tecnología de predicción de edad, y si no se está seguro, se aplicarán por defecto las reglas más restrictivas.
Sam Altman reconoció que estas medidas generan tensiones entre privacidad, libertad de uso y protección, pero las considera necesarias ante riesgos reales. Las nuevas políticas se dan además en el marco de investigaciones, demandas y audiencias legislativas que cuestionan la responsabilidad de las plataformas de IA en casos de adolescentes en crisis emocional, suicidio o daño psicológico.
📌Fuente: Tech Church.