San Francisco, CA – Anthropic, desarrollador de los modelos de lenguaje grandes Claude, se encuentra inmerso en una disputa de alto riesgo con el Pentágono, enfrentando una fecha límite el viernes para relajar las salvaguardas críticas de IA en su tecnología o arriesgarse a ser catalogado como un riesgo en la cadena de suministro. Este enfrentamiento pone de relieve una tensión creciente entre los desarrolladores de IA que priorizan el despliegue ético y las agencias gubernamentales que buscan capacidades sin restricciones para la seguridad nacional (TechCrunch AI, NYT Tech).
En el centro del conflicto se encuentra la firme negativa de Anthropic a permitir que sus modelos de IA, incluido Claude, se utilicen para sistemas de armas autónomas o para espiar a ciudadanos estadounidenses. Según se informa, el CEO Dario Amodei se ha reunido con el Secretario de Defensa Pete Hegseth para transmitir la posición de la empresa (CNBC Tech). Estas salvaguardas están integradas en la funcionalidad central y las políticas de uso de las herramientas de Anthropic, diseñadas para prevenir el uso indebido y garantizar la alineación con los principios de IA responsable de la empresa. El Pentágono, sin embargo, está presionando por una mayor flexibilidad, intensificando la disputa y amenazando con posibles sanciones o la pérdida de contratos gubernamentales.
Subrayando aún más su compromiso con la integridad de la IA, Anthropic acusó recientemente a varios laboratorios de IA chinos, incluidos Deepseek, Moonshot y MiniMax, de recopilación de datos a "escala industrial" de su chatbot Claude, involucrando más de 16 millones de consultas. Este incidente, también señalado por OpenAI, pone de relieve las preocupaciones sobre el robo de propiedad intelectual y la integridad de los modelos de IA en medio de una intensa competencia global. Los principales actores de la industria, incluidos Google, OpenAI y la propia Anthropic, se están preparando para el próximo lanzamiento importante de Deepseek, lo que subraya el feroz panorama competitivo y la sensibilidad en torno a la propiedad intelectual (TechCrunch AI, The Decoder, CNBC Tech, SiliconAngle AI, NYT Tech, The Decoder). Una postura tan rigurosa sobre la seguridad de los datos y el despliegue ético complica cualquier presión por controles más laxos por parte del Pentágono, especialmente dada la discusión sobre si las demandas del DoD podrían otorgar inadvertidamente una ventaja estratégica a rivales como China, que pueden estar menos preocupados por las salvaguardas de seguridad (Forbes Innovation).
Las ramificaciones de esta disputa se extienden más allá de Anthropic. Hasta hace poco, Anthropic era la única empresa de IA autorizada para desplegar sus modelos en redes clasificadas, lo que le daba a Claude una ventaja competitiva significativa. Sin embargo, xAI de Elon Musk también ha obtenido la autorización para sus modelos, creando una nueva dinámica en el mercado de IA para la defensa (CNBC Tech). Si Anthropic fuera marginada, podría allanar el camino para que otros desarrolladores de herramientas de IA capturen una mayor cuota de contratos de defensa críticos, potencialmente con menos restricciones éticas.
Mientras tanto, Anthropic está realizando un esfuerzo concertado en el mercado empresarial más amplio. Los anuncios recientes incluyen nuevos agentes empresariales con complementos para finanzas, ingeniería y diseño, y actualizaciones de su herramienta Claude Cowork, que permiten a Claude operar de forma independiente en aplicaciones como Excel y PowerPoint (TechCrunch AI, The Decoder, CNBC Tech). Más allá de sus modelos fundamentales, Anthropic también está desarrollando herramientas especializadas como Claude Code, cuyo creador predijo ominosamente que "los ingenieros de software podrían extinguirse este año", comparando su impacto con la imprenta (Fortune). Esta IA especializada ya está demostrando ser eficaz para la creación de herramientas internas (Towards Data Science). Estos esfuerzos comerciales, que recientemente contribuyeron a un repunte en las acciones de software de la empresa (CNBC Tech), ilustran la estrategia diversificada de Anthropic. El poder disruptivo de la IA de Anthropic, particularmente sus capacidades avanzadas de lenguaje de programación, se ha sentido intensamente en el mercado, con las acciones de IBM cayendo un 13% al ser etiquetada como "la última víctima de la IA" (CNBC Tech). Los observadores del mercado también señalan el potencial disruptivo de la IA en sectores como la ciberseguridad, lo que ha llevado a una mayor venta de acciones, aunque algunos analistas se mantienen optimistas (CNBC Tech, CNBC Tech).
Para los usuarios de los modelos Claude de Anthropic, esta situación subraya el compromiso con la seguridad que diferencia sus ofertas. Una posible designación como "riesgo en la cadena de suministro" podría complicar la futura integración y adopción en sectores adyacentes al gobierno. Este incidente sienta un precedente crítico sobre cómo se desarrollan, implementan y gobiernan las herramientas de IA en entornos de alto riesgo a nivel mundial.
Trends, new tools, and exclusive analyses delivered weekly.