La reciente inclusión en lista negra por parte del Pentágono del desarrollador de IA Anthropic, creador del modelo de lenguaje grande Claude, ha causado conmoción en la industria de la IA, desatando batallas legales y planteando serias dudas sobre la influencia del gobierno en el desarrollo de herramientas. Sin embargo, ha ocurrido un desarrollo significativo: un juez estadounidense ha bloqueado la designación de Anthropic como riesgo de cadena de suministro por parte del Pentágono. La jueza de distrito Rita Lin había cuestionado previamente los motivos del Departamento de Defensa (DoD), calificando su designación como un 'intento de asesinato corporativo' y 'preocupante'. Esta medida sin precedentes, que marca la primera vez que una empresa estadounidense recibe tal designación de seguridad nacional, impacta directamente el panorama competitivo para herramientas de IA potentes como Claude y ChatGPT de OpenAI. Se espera un fallo pronto, pero ahora se ha concedido una orden judicial preliminar, con la designación del Pentágono suspendida y bloqueado el veto a Claude para uso gubernamental. La designación de riesgo de cadena de suministro del Pentágono ha sido suspendida y el tribunal ha bloqueado la prohibición del uso de Claude por parte del gobierno.
En una victoria crucial para Anthropic, un juez estadounidense ha bloqueado la medida del Pentágono de etiquetar a la firma de IA como un riesgo de cadena de suministro, una designación que podría haber prohibido efectivamente Claude del uso gubernamental. El juez citó preocupaciones de que la designación era una 'noción orwelliana' y potencialmente constituía una 'represalia por la Primera Enmienda'. Esta orden judicial preliminar detiene los esfuerzos del Pentágono, brindando un respiro a Anthropic mientras continúa la batalla legal. El núcleo de la disputa supuestamente gira en torno a la disposición de Anthropic a adaptar sus modelos de IA Claude para aplicaciones de defensa. Si bien los detalles siguen bajo secreto, los informes sugieren una disputa sobre cómo armar Claude, lo que podría haber llevado a la inclusión en lista negra después de un desacuerdo. Un juez estadounidense bloquea la 'noción orwelliana' del Pentágono de etiquetar a Anthropic como riesgo de cadena de suministro y prohibir Claude del gobierno, citando preocupaciones de que la designación era una 'noción orwelliana' y potencialmente constituía una 'represalia por la Primera Enmienda'.
Esta designación podría haber paralizado gravemente la capacidad de Anthropic para asegurar contratos gubernamentales lucrativos, impactando directamente los recursos disponibles para el desarrollo continuo y la escalada de sus modelos Claude. Para los usuarios, esto significa posibles limitaciones sobre dónde y cómo las capacidades de Claude podrían integrarse en aplicaciones del sector público o relacionadas con la defensa, sofocando su penetración en el mercado. En desarrollos relacionados, Anthropic ha otorgado a Claude Code más control, pero lo mantiene bajo control, permitiendo una finalización de tareas más autónoma. Además, Claude Code ahora puede tomar el control del ordenador de un usuario para completar tareas, y su nuevo Modo Automático tiene como objetivo equilibrar seguridad y velocidad. Además, Anthropic ha anunciado que Claude ahora puede usar el ordenador de un usuario para finalizar tareas en un impulso de agentes de IA. Sin embargo, la empresa también se enfrenta a un escrutinio por problemas de precios y fallos con Claude Code, según informó Forbes Innovation. ¿Anthropic: Enormes problemas de precios con fallos en Claude Code que limitan?
En una importante brecha de seguridad, Anthropic ha reconocido estar probando un nuevo modelo de IA, con nombre en código 'Mythos', que representa un 'cambio radical' en capacidades. Esta revelación se produjo después de que los detalles del modelo no lanzado, junto con información sobre un retiro de directores ejecutivos solo por invitación, se encontraran en un depósito de datos no seguro. Exclusiva: Anthropic reconoce estar probando un nuevo modelo de IA que representa un 'cambio radical' en capacidades, después de que una filtración de datos accidental revelara su existencia. La filtración de datos también expuso detalles de un retiro de directores ejecutivos solo por invitación, lo que destaca una importante brecha de seguridad. Exclusiva: Anthropic dejó detalles de un modelo no lanzado y un evento exclusivo para directores ejecutivos en un depósito de datos no seguro en una importante brecha de seguridad.
En marcado contraste, OpenAI, el desarrollador detrás de ChatGPT, parece haber capitalizado la incertidumbre inicial en torno a la situación de Anthropic. El Pentágono supuestamente llegó a un acuerdo 'oportunista y descuidado' con OpenAI poco después de las preocupaciones iniciales sobre la inclusión en lista negra. Esta medida no solo otorga a ChatGPT una importante ventaja en contratos de defensa, sino que también resalta la agresiva competencia por clientes gubernamentales de alto valor. Sin embargo, esta asociación no ha estado exenta de controversia, con informes de usuarios que abandonan ChatGPT y protestas públicas contra la militarización de la IA, lo que plantea preguntas sobre la confianza del usuario y las implicaciones éticas para los modelos fundacionales.
La senadora Elizabeth Warren también ha intervenido, cuestionando al DoD sobre la lista negra, que sugiere que 'parece ser una represalia'. La reciente orden judicial, sin embargo, cambia la narrativa. Esta disputa, ahora llevada a un punto de inflexión por la decisión del juez, resalta la compleja intersección del desarrollo de herramientas de IA, la seguridad nacional y la ética corporativa. El resultado del desafío legal sentará un precedente crítico para la forma en que los gobiernos interactúan con las principales empresas de IA y podría redefinir los límites éticos y las direcciones estratégicas para el desarrollo futuro de modelos de IA. La disputa Anthropic-Pentágono marca un punto de inflexión para la industria de la IA.
Mientras tanto, la industria de la IA en general se enfrenta a una creciente brecha de habilidades, y las empresas de IA señalan que los usuarios avanzados están cada vez más a la cabeza. La brecha de habilidades en IA está aquí, dice una empresa de IA, y los usuarios avanzados están tomando la delantera.
Trends, new tools, and exclusive analyses delivered weekly.