Tabla de contenidos
El 14 de julio de 2025, Anthropic —una de las compañías líderes en inteligencia artificial segura— anunció una colaboración formal con el Departamento de Defensa de EE.UU. para “avanzar en el uso responsable de la IA en operaciones de defensa”. El acuerdo, que incluye investigación conjunta y pruebas de modelos en entornos controlados, fue presentado como un paso hacia una IA más segura y alineada incluso en contextos críticos.
Pero lo que parecía un hito en la relación público‑privada se ha convertido en un caso de estudio sobre los dilemas éticos y estratégicos que enfrentan las startups de IA cuando consideran trabajar con gobiernos y agencias militares.
Qué pasó
Anthropic, fundada con una fuerte narrativa de seguridad y alineación (“AI safety”), ha mantenido tradicionalmente un perfil cauteloso respecto a aplicaciones militares. Sin embargo, en 2025 decidió firmar un memorándum de entendimiento con el Pentágono que abre la puerta a la integración de sus modelos Claude en sistemas de apoyo a la toma de decisiones, ciberseguridad y análisis de inteligencia.
La noticia, cubierta primero por medios especializados y luego por la prensa generalista, desencadenó críticas internas y externas. Algunos empleados expresaron su malestar en foros internos; organizaciones como la Electronic Frontier Foundation y el Institute for AI Policy and Strategy publicaron análisis cuestionando la coherencia de una empresa “centrada en el bien” colaborando con el complejo militar‑industrial.
En marzo de 2026, el debate se reavivó cuando TechCrunch publicó un artículo titulado “Will the Pentagon’s Anthropic controversy scare startups away from defense work?”, que analiza cómo el escándalo podría disuadir a otras startups de perseguir contratos similares.
Por qué importa
La controversia no es solo sobre Anthropic. Es un termómetro del clima cultural en el ecosistema de IA y una señal para inversores, reguladores y emprendedores.
-
Riesgo reputacional: Las startups de IA dependen de la confianza de usuarios, talento e inversores. Una asociación con fines militares puede erosionar esa confianza, especialmente si la empresa ha construido su marca alrededor de valores como la transparencia y el beneficio social.
-
Presión de talento: Los ingenieros y científicos de IA suelen tener fuertes convicciones éticas. Una startup que entre en defensa podría enfrentar dificultades para contratar y retener a los mejores perfiles, o incluso sufrir revueltas internas.
-
Regulación creciente: Los gobiernos están diseñando marcos normativos específicos para IA en defensa. Cumplirlos exige recursos jurídicos y técnicos que muchas startups no tienen.
-
Competencia con gigantes: Las grandes contratistas de defensa (Lockheed Martin, Raytheon, etc.) y los gigantes tecnológicos (Google, Microsoft, Amazon) ya tienen equipos dedicados a IA militar. Una startup pequeña puede quedar ahogada en procesos de adquisición largos y burocráticos.
A quién afecta
-
Startups de IA en etapas tempranas: Deben decidir si incluyen el sector defensa en su plan de negocio. La controversia les obliga a sopesar el potencial de ingresos frente al posible daño a su marca y cultura.
-
Inversores en deep tech: Los fondos de capital riesgo que financian startups de IA deben evaluar el riesgo político y regulatorio de apostar por empresas que podrían verse envueltas en polémicas similares.
-
Gobiernos y agencias de defensa: Necesitan acceso a la innovación que aportan las startups, pero la reticencia de estas podría ralentizar la modernización de sus sistemas.
-
La sociedad en general: La participación de empresas privadas en IA militar plantea preguntas sobre el control democrático, la transparencia y los límites de la automatización en decisiones que afectan a vidas humanas.
Contexto
La relación entre Silicon Valley y el Pentágono ha sido históricamente tensa. En 2018, las protestas de empleados de Google forzaron a la compañía a abandonar el proyecto Project Maven (uso de IA para análisis de imágenes de drones). Ese episodio ya mostró la fuerza de la oposición interna.
Desde entonces, el Departamento de Defensa ha intentado mejorar su imagen en el valle, creando unidades como la Joint Artificial Intelligence Center (JAIC) y lanzando programas como Project Salus para atraer a startups. Aún así, el estigma persiste.
Anthropic, por su parte, había logrado posicionarse como la “empresa ética” frente a OpenAI y Google. Esta colaboración rompe esa narrativa y expone la tensión inevitable entre crecimiento comercial y principios fundacionales.
Recomendación editorial
Las startups de IA deberían abordar el tema de forma proactiva y transparente si consideran trabajar con gobiernos o sectores sensibles:
-
Debatir internamente antes de firmar: Incluir a empleados, asesores éticos y representantes de la comunidad en la discusión. Una decisión tomada solo por la dirección puede costar cara después.
-
Definir líneas rojas claras: ¿Qué usos de la tecnología están prohibidos? ¿Qué salvaguardas técnicas y contractuales se implementarán? Documentarlas y comunicarlas públicamente.
-
Explorar alternativas civiles primero: El sector público civil (sanidad, educación, administración) también ofrece contratos grandes, con menor riesgo reputacional y alineados con misiones de impacto social.
-
Incluir el riesgo reputacional en el plan de negocio: No subestimar el costo de una controversia pública. Asignar recursos a comunicación, relaciones públicas y gestión de crisis desde el inicio.
La colaboración de Anthropic con el Pentágono no es intrínsecamente mala, pero sí es un recordatorio de que en la era de la IA, las decisiones comerciales tienen dimensiones éticas y políticas que no pueden ignorarse.
Preguntas frecuentes (FAQ)
Además de las incluidas en el frontmatter, aquí hay otras cuestiones relevantes:
¿Qué otras startups de IA trabajan con defensa? Empresas como Scale AI, Shield AI y Anduril han construido gran parte de su negocio alrededor de contratos de defensa. Otras, como OpenAI, mantienen una política explícita de no permitir usos militares de sus modelos (aunque con excepciones ambiguas).
¿Puede una startup rechazar un contrato de defensa por principios éticos y seguir siendo viable? Sí. El mercado de IA civil es enorme y crece rápidamente. Startups como Hugging Face o Cohere han demostrado que se puede construir un negocio sostenible sin involucrarse en defensa.
¿Qué países están más abiertos a colaborar con startups de IA en defensa? Estados Unidos, Reino Unido, Israel y Australia lideran la incorporación de IA en defensa y tienen programas específicos para atraer startups. La Unión Europea avanza más lentamente, con un enfoque más restrictivo.
¿Cómo pueden los inversores evaluar el riesgo ético de una startup de IA? Incorporando cuestiones de gobernanza, transparencia y alineación en el due diligence. Algunos fondos ya usan marcos como el Responsible AI Framework o exigen la creación de un comité ético interno.
Fuentes consultadas:
- Anthropic and the Department of Defense to advance responsible AI in defense operations (julio 2025)
- Will the Pentagon’s Anthropic controversy scare startups away from defense work? (marzo 2026)
- Project Maven: Google’s struggle between ethics and the Pentagon (2018)
Preguntas frecuentes
¿Qué acuerdo firmó Anthropic con el Pentágono?
En julio de 2025, Anthropic anunció una colaboración con el Departamento de Defensa de EE.UU. para avanzar en el uso responsable de la IA en operaciones de defensa. El acuerdo incluye investigación conjunta y pruebas de modelos en entornos controlados.
¿Por qué genera polémica?
Algunos empleados y grupos de derechos digitales critican que una empresa centrada en IA segura colabore con fines militares, argumentando que podría acelerar la automatización de decisiones letales o facilitar la vigilancia masiva.
¿Afecta a otras startups de IA?
Sí. La controversia pone bajo escrutinio a todas las startups que busquen contratos de defensa, aumentando el riesgo reputacional y la presión de inversores y empleados. Algunas podrían optar por evitar el sector público por completo.
¿Deberían las startups de IA trabajar con gobiernos?
Depende de su misión y valores. Los contratos de defensa ofrecen ingresos estables y acceso a problemas técnicos complejos, pero conllevan riesgos éticos, regulatorios y de imagen. Cada startup debe evaluar su tolerancia al riesgo y alinear sus decisiones con su cultura interna.
¿Qué alternativas tienen las startups de IA al sector defensa?
Pueden enfocarse en aplicaciones civiles como salud, educación, empresa, clima o administración pública, donde la demanda de IA también es alta y los riesgos éticos son más manejables.