Por Redacción OnData
Resumen. WeTransfer modificó sus términos de uso incluyendo una cláusula que permitía usar archivos de usuarios para entrenar IA, desatando rechazo entre creativos. Aunque rectificó, el daño reputacional expone cómo decisiones poco claras en torno al uso de datos pueden quebrar la confianza en marcas que se posicionan por su enfoque en privacidad.
WeTransfer enfrentó una fuerte reacción pública tras actualizar discretamente sus términos de uso, en los que incluía una cláusula que autorizaría el uso de archivos de usuarios para entrenar modelos de inteligencia artificial. Esto generó alarma especialmente entre creativos y freelancers, quienes vieron comprometida su confianza en la plataforma por la posible explotación de su contenido sin consentimiento ni compensación.
Tras la controversia, la empresa actuó rápidamente revisando sus términos, eliminando cualquier mención al uso de “machine learning” y garantizando que los archivos de los usuarios no serán utilizados para entrenar IA, ni compartidos con terceros. Confirmaron que esta decisión fue tomada para clarificar el lenguaje legal y reafirmar que la privacidad y control del contenido continúan en manos de los usuarios.
👋The WeTransfer social team here. We wanted to clarify that we don’t use machine learning or any form of AI to process content shared via WeTransfer. Please read the clarified statement here: https://t.co/scUrdWrBQC
— WeTransfer (@WeTransfer) July 15, 2025
Aunque WeTransfer aseguró que nunca utilizó datos para entrenar sus modelos, la percepción pública ya era negativa. Muchos usuarios interpretaron la cláusula como una “prueba del pastel”, un intento deliberado de testar los límites antes de revertir el texto ante el rechazo masivo.
Este episodio refleja una tendencia global entre empresas tecnológicas: cambios legales opacos vinculados a IA generan deterioro inmediato en la relación con usuarios. Plataformas como Zoom, Dropbox y Slack ya enfrentaron situaciones similares. En este contexto, la transparencia previa y la claridad absoluta son esenciales para preservar la confianza del usuario en la era de la inteligencia artificial.