Claude d'Anthropic confronté à la liste noire du Pentagone, des clients de la défense se retirent
TL;DR
- 1Claude d'Anthropic est utilisé par l'armée américaine pour la planification de frappes malgré les désaccords éthiques d'Anthropic et la désignation de l'entreprise comme « risque pour la chaîne d'approvisionnement » par le Pentagone.
- 2Cette désignation a poussé les clients de la technologie de défense à abandonner Claude, tandis qu'OpenAI chercherait à combler le vide pour les contrats militaires.
- 3Malgré la controverse, les revenus d'Anthropic approchent les 20 milliards de dollars, et l'entreprise poursuit le développement de produits, y compris un nouveau mode vocal pour Claude Code.
L'outil d'IA phare d'Anthropic, Claude, se trouve au cœur d'une tempête géopolitique et éthique. Ses modèles seraient utilisés par l'armée américaine pour la planification de frappes sophistiquées dans le conflit en cours avec l'Iran, une utilisation qui persiste même après que le Pentagone a officiellement désigné Anthropic comme un "risque pour la sécurité nationale de la chaîne d'approvisionnement" (CNBC Tech). Cette désignation officielle et l'utilisation continue soulignent un différend controversé entre Anthropic et le Pentagone, qui avait déjà identifié le développeur d'IA comme tel (CNBC Tech, Fortune).
Le conflit s'est intensifié après qu'Anthropic aurait résilié son contrat avec le Pentagone en raison de désaccords concernant la sécurité de l'IA et les restrictions d'utilisation (TechCrunch AI, CNBC Tech). Cela a alimenté une dispute publique plus intense, le PDG d'Anthropic, Dario Amodei, attaquant notamment l'accord d'OpenAI avec le Pentagone, le qualifiant de "théâtre de sécurité" et exprimant de fortes réserves quant à l'engagement des concurrents dans les applications militaires (The Decoder, TechCrunch AI). En revanche, le PDG d'OpenAI, Sam Altman, tout en assurant initialement à son personnel que les "décisions opérationnelles" concernant l'utilisation militaire relèvent finalement de la responsabilité du gouvernement (CNBC Tech), a depuis porté des coups directs à Anthropic, réitérant sa conviction que les gouvernements devraient détenir plus de pouvoir que les entreprises dans ces questions critiques (CNBC Tech). Malgré cela, des rapports indiquent que les modèles Claude restent activement utilisés par l'armée pour des opérations critiques telles que la sélection de cibles et la planification de frappes, marquant le premier déploiement à grande échelle d'IA générative dans une telle capacité (TechCrunch AI, The Decoder). Cette situation complexe a entraîné d'importantes répercussions, les clients du secteur de la défense qui dépendent des contrats gouvernementaux étant désormais contraints d'abandonner Claude pour atténuer les risques associés à la liste noire du Pentagone (CNBC Tech). Cette préoccupation a été amplifiée par le PDG de Palantir, Alex Karp, qui a publiquement exprimé son inquiétude que le conflit Anthropic-Pentagone puisse menacer les opérations d'entreprises comme la sienne, profondément intégrées aux contrats de défense (Fortune).
L'étiquette de "risque pour la chaîne d'approvisionnement" crée des obstacles substantiels pour Anthropic, d'autant plus que l'entreprise envisage une éventuelle introduction en bourse, les investisseurs s'efforçant apparemment de désamorcer les conflits en cours (The Decoder, Fortune). Alors que le PDG d'Anthropic, Dario Amodei, aurait repris les négociations avec le Département de la Défense (CNBC Tech) et pourrait encore tenter de conclure un accord avec le Pentagone (TechCrunch AI), la controverse a ouvert des portes aux concurrents. OpenAI, par exemple, s'est empressé de rechercher des contrats militaires, alimentant des altercations publiques entre les deux géants de l'IA (TechCrunch AI, CNBC Tech). Dans un développement connexe, le PDG de Nvidia, Jensen Huang, a indiqué un potentiel changement stratégique, déclarant que l'entreprise pourrait se retirer de nouveaux investissements majeurs dans OpenAI et Anthropic, un investissement de 30 milliards de dollars dans OpenAI pouvant être le dernier (TechCrunch AI, CNBC Tech). Cette décision, bien que soulevant d'autres questions, souligne une incertitude plus large dans l'industrie. L'incident souligne également des préoccupations plus larges concernant l'éthique de l'IA dans les applications militaires, certains employés de Google et d'OpenAI appelant à des limites plus strictes sur l'utilisation de l'IA dans la guerre (CNBC Tech). Les spécificités de la manière dont les modèles d'IA sont déployés dans la guerre, par exemple, dans la reconnaissance tactique ou le développement de cibles, continuent d'être un sujet d'examen intense et de compréhension évolutive (Wired AI).
Malgré ces défis, l'activité globale d'Anthropic semble robuste. L'entreprise approcherait d'un taux de revenus annuel de 20 milliards de dollars (The Decoder), ce qui suggère que ses outils conservent un fort attrait dans d'autres secteurs. De plus, Anthropic continue d'innover, ayant récemment déployé une capacité de mode vocal pour Claude Code, améliorant l'accessibilité et l'expérience utilisateur pour les développeurs (TechCrunch AI). Cette nouvelle fonctionnalité pour les utilisateurs de Claude Code offre une interaction mains libres, augmentant potentiellement la productivité pour les tâches de programmation.
La saga en cours met en lumière un point de tension critique pour les développeurs d'outils d'IA : l'équilibre entre la croissance commerciale et les considérations éthiques, en particulier lorsque leurs puissants modèles sont appliqués dans des environnements à enjeux élevés. Elle met également en évidence l'impératif pour les utilisateurs d'évaluer de manière critique les résultats de l'IA, une préoccupation amplifiée par la propre recherche d'Anthropic indiquant que 91 % des utilisateurs d'IA ne vérifient pas les informations générées (Forbes Innovation). Cet incident sert de rappel brutal des défis complexes de gouvernance auxquels est confronté le paysage de l'IA en évolution rapide, encore compliqués par les différentes positions éthiques des principaux développeurs d'IA et les réalignements stratégiques des grands investisseurs.
Sources
Newsletter IA hebdomadaire
Tendances, nouveaux outils et analyses exclusives, chaque semaine.