Por Redacción OnData
La administración Trump decidió cortar vínculos con Anthropic y declarar a la empresa como un riesgo para la cadena de suministro, lo que implica que sus modelos de inteligencia artificial dejarán de ser utilizados por el Pentágono y otras agencias federales. La medida se da tras la negativa de Anthropic a permitir que sus sistemas se empleen en todos los casos de uso militar, incluyendo áreas sensibles como vigilancia masiva y armas autónomas (líneas que la compañía se negó a cruzar). En contraste, OpenAI y xAI recibieron autorización para que sus modelos operen en entornos clasificados, marcando un giro en la relación del gobierno con las principales firmas de Silicon Valley.
Según The Wall Street Journal, el acuerdo de OpenAI con el Departamento de Defensa incluye las mismas restricciones que Anthropic había defendido (prohibiciones sobre vigilancia masiva y armas autónomas), pero con salvaguardas técnicas adicionales. Sam Altman, director ejecutivo de OpenAI, señaló que la intención es evitar que las tensiones escalen hacia acciones legales y fomentar acuerdos razonables. Sin embargo, el trasfondo político es evidente: mientras Anthropic ha cuestionado las políticas tecnológicas del presidente, OpenAI y sus directivos han apoyado financieramente su agenda, destinando millones de dólares a comités políticos afines.
La designación de Anthropic como riesgo de seguridad podría tener consecuencias profundas en su negocio, ya que otros contratistas del gobierno deberán demostrar que no utilizan sus modelos. La compañía anunció que impugnará la decisión en tribunales, argumentando que sienta un precedente peligroso para cualquier empresa estadounidense que negocie con el gobierno. Analistas advierten que este enfrentamiento no solo afecta a Anthropic, sino que envía un mensaje negativo a la comunidad empresarial y a socios internacionales sobre la forma en que Estados Unidos gestiona la innovación en inteligencia artificial.
📌Fuente: The Wall Street Journal.