Por Redacción OnData
Resumen. Conversaciones compartidas en ChatGPT aparecieron en Google y otros buscadores debido a un experimento de OpenAI que permitía indexarlas si el usuario creaba un enlace público. Aunque no eran públicas por defecto, algunos chats expusieron información personal. OpenAI desactivó la función el 31 de julio de 2025 tras detectar riesgos de privacidad.
En un experimento de OpenAI, algunas conversaciones públicas compartidas de ChatGPT fueron indexadas por Google y otros motores de búsqueda, lo que permitió que prompts y respuestas se volvieran accesibles mediante búsquedas públicas. Esto incluyó preguntas sobre salud mental, estrategias profesionales y contenido sensible, aunque solo se compartieron los chats explícitamente marcados como «discoverable» mediante el botón «share».
La funcionalidad requería dos pasos: primero, hacer clic en “Share” y luego seleccionar la opción para que el enlace fuese visible públicamente. Aunque OpenAI afirmaba que se trataba de una herramienta de experimentación y que estos chats no eran públicos a menos que el usuario eligiera, muchos no comprendieron el riesgo de privacidad que esto representaba.
Sam Altman acaba de soltar una bomba incómoda:
— Weplash⚡️ (@weplash) July 25, 2025
Si usas ChatGPT como terapeuta, tus conversaciones no están protegidas legalmente.
No hay confidencialidad como la que tendrías con un médico o psicólogo. Si un juez lo pide, OpenAI tendría que entregar tus chats. 💀 pic.twitter.com/gdaFkVgaEA
Frente a las preocupaciones globales, OpenAI suspendió la opción de que los chats compartidos fueran indexables por motores de búsqueda el 31 de julio. Además, ya está colaborando con Google y otros proveedores para desindexar los enlaces expuestos, aunque podría pasar un tiempo antes de que desaparezcan por completo debido a cachés y archivos en la web.
Especialistas en privacidad advierten que esto subraya la necesidad de usar los chats de IA con precaución: incluso contenidos que parecen inofensivos pueden revelar información sensible si se comparten sin entender las implicancias. OpenAI enfatiza que el experimento se gestionó con consentimiento del usuario, pero reconoce que la ejecución debió ser más clara respecto a los riesgos.