La herramienta de IA insignia de Anthropic, Claude, se encuentra en el centro de una tormenta geopolítica y ética. Según informes, sus modelos están siendo utilizados por el ejército de EE. UU. para la planificación sofisticada de ataques en el conflicto en curso con Irán, un uso que continúa incluso después de que el Pentágono designara oficialmente a Anthropic como un "Riesgo de Cadena de Suministro para la Seguridad Nacional" (CNBC Tech). Esta designación oficial y el uso continuo resaltan una disputa contenciosa entre Anthropic y el Pentágono, que previamente había identificado al desarrollador de IA de esta manera (CNBC Tech, Fortune).
El conflicto se intensificó después de que Anthropic supuestamente rescindiera su contrato con el Pentágono por desacuerdos sobre la seguridad de la IA y las restricciones de uso (TechCrunch AI, CNBC Tech). Esto alimentó una disputa pública más intensa, con el CEO de Anthropic, Dario Amodei, atacando notablemente el acuerdo de OpenAI con el Pentágono, calificándolo de "teatro de seguridad" y expresando fuertes reservas sobre la participación de los competidores en aplicaciones militares (The Decoder, TechCrunch AI). En contraste, el CEO de OpenAI, Sam Altman, aunque inicialmente aseguró a su personal que las "decisiones operativas" sobre el uso militar son en última instancia responsabilidad del gobierno (CNBC Tech), ha lanzado ataques directos a Anthropic, reiterando su creencia de que los gobiernos deberían tener más poder que las empresas en asuntos tan críticos (CNBC Tech). A pesar de esto, los informes indican que los modelos de Claude permanecen en uso activo por parte de los militares para operaciones críticas como la selección de objetivos y la planificación de ataques, marcando el primer despliegue a gran escala de IA generativa en tal capacidad (TechCrunch AI, The Decoder). Esta compleja situación ha provocado importantes repercusiones, y los clientes de tecnología de defensa que dependen de contratos gubernamentales ahora están abandonando Claude para mitigar los riesgos asociados con la lista negra del Pentágono (CNBC Tech). Esta preocupación fue amplificada por el CEO de Palantir, Alex Karp, quien expresó públicamente su alarma de que la disputa entre Anthropic y el Pentágono podría amenazar las operaciones de empresas como la suya, que están profundamente integradas con contratos de defensa (Fortune).
La etiqueta de "riesgo de cadena de suministro" crea obstáculos sustanciales para Anthropic, especialmente mientras contempla una posible salida a bolsa (IPO), y los inversores supuestamente buscan una desescalada en medio de las disputas en curso (The Decoder, Fortune). Si bien el CEO de la compañía, Dario Amodei, supuestamente ha reanudado las negociaciones con el Departamento de Defensa (CNBC Tech) y aún podría estar buscando un acuerdo con el Pentágono (TechCrunch AI), la controversia ha abierto puertas a los competidores. OpenAI, por ejemplo, se ha apresurado a buscar contratos militares, alimentando disputas públicas entre los dos gigantes de la IA (TechCrunch AI, CNBC Tech). En un desarrollo relacionado, el CEO de Nvidia, Jensen Huang, indicó un posible cambio estratégico, afirmando que la compañía podría estar retirándose de futuras inversiones importantes en OpenAI y Anthropic, y que una inversión de 30 mil millones de dólares en OpenAI podría ser la última (TechCrunch AI, CNBC Tech). Esta decisión, a pesar de plantear más preguntas, resalta la incertidumbre general de la industria. El incidente también subraya las preocupaciones más amplias sobre la ética de la IA en aplicaciones militares, y algunos empleados de Google y OpenAI piden límites más estrictos al uso de la IA en la guerra (CNBC Tech). Los detalles específicos de cómo se implementan los modelos de IA en la guerra, por ejemplo, en el reconocimiento táctico o el desarrollo de objetivos, continúan siendo objeto de un intenso escrutinio y una comprensión en evolución (Wired AI).
A pesar de estos desafíos, el negocio general de Anthropic parece sólido. Según informes, la compañía se acerca a una tasa de ingresos anuales de 20 mil millones de dólares (The Decoder), lo que sugiere que sus herramientas mantienen un fuerte atractivo en otros sectores. Además, Anthropic continúa innovando, habiendo lanzado recientemente una capacidad de Modo de Voz para Claude Code, mejorando la accesibilidad y la experiencia del usuario para los desarrolladores (TechCrunch AI). Esta nueva función para los usuarios de Claude Code ofrece interacción manos libres, lo que podría aumentar la productividad en tareas de programación.
La saga en curso destaca un punto crítico de tensión para los desarrolladores de herramientas de IA: equilibrar el crecimiento comercial con las consideraciones éticas, especialmente cuando sus potentes modelos se aplican en entornos de alto riesgo. También pone de relieve el imperativo para los usuarios de evaluar críticamente las salidas de la IA, una preocupación amplificada por la propia investigación de Anthropic que indica que el 91% de los usuarios de IA no verifican la información generada (Forbes Innovation). Este incidente sirve como un recordatorio contundente de los complejos desafíos de gobernanza que enfrenta el panorama de la IA en rápida evolución, complicados aún más por las diferentes posturas éticas de los principales desarrolladores de IA y los reajustes estratégicos de los principales inversores.
Trends, new tools, and exclusive analyses delivered weekly.