Una decisión del gobierno de Trump sacude a una de las empresas de IA más influyentes y reabre el debate sobre tecnología, poder y seguridad nacional.
La inteligencia artificial se ha convertido en un terreno estratégico para las potencias mundiales, y Estados Unidos no es la excepción. Esta semana, la administración de Donald Trump tomó una decisión que sacudió al sector tecnológico: incluir a la empresa de IA Anthropic en una lista oficial de “riesgo para la cadena de suministro”. La medida implica que agencias federales y contratistas vinculados a defensa deberán evitar su tecnología en proyectos sensibles.
PUEDES VER: ¿Por qué Donald Trump tiene una mancha roja en el cuello? Su médico aclara si peligra su salud
El Pentágono notificó formalmente a Anthropic que su tecnología ha sido catalogada como “supply chain risk”, una designación que restringe su uso en contratos federales y especialmente en proyectos relacionados con defensa.
Según reportes de medios como Reuters y The Verge, esta clasificación obliga a agencias y proveedores del gobierno estadounidense a revisar si utilizan herramientas de la compañía y, en caso afirmativo, a reemplazarlas gradualmente. En la práctica, se trata de un veto tecnológico que podría afectar la presencia de la empresa en el ecosistema de seguridad nacional.
Este tipo de medidas suele aplicarse a empresas extranjeras consideradas riesgosas para la infraestructura estratégica. Por eso la decisión ha llamado la atención en la industria: Anthropic es una empresa estadounidense con fuerte presencia en el desarrollo de inteligencia artificial avanzada.
El trasfondo de la decisión está en las tensiones entre la empresa y el gobierno sobre cómo utilizar la inteligencia artificial en entornos militares. De acuerdo con la cobertura de Reuters, el desacuerdo surgió en torno a las condiciones bajo las cuales el Ejército podría usar los sistemas de IA de la compañía. Las autoridades buscaban ampliar su aplicación en contextos de defensa y seguridad, algo que generó fricciones con la empresa.
La disputa escaló hasta convertirse en un problema político y estratégico. En un momento en que Washington refuerza su enfoque en seguridad tecnológica, el gobierno decidió tomar distancia de la compañía y limitar su participación en proyectos sensibles del Estado.
Fundada por exinvestigadores de OpenAI, Anthropic se ha consolidado como uno de los actores más relevantes en el desarrollo de modelos de lenguaje avanzados. Su sistema más conocido es Claude, un asistente de inteligencia artificial diseñado para analizar información, generar texto y ayudar en tareas complejas.
En los últimos años, la empresa ha ganado peso en la carrera global por dominar la IA, compitiendo con gigantes tecnológicos y startups de rápido crecimiento. Su tecnología es especialmente valorada por su capacidad para procesar grandes volúmenes de datos y generar análisis sofisticados.
Por eso la decisión del Pentágono tiene implicaciones más allá de un conflicto puntual. En un escenario donde la inteligencia artificial se vuelve clave para la seguridad y la geopolítica, cada movimiento entre gobiernos y empresas tecnológicas redefine el equilibrio de poder en la industria.