L'inscription récente d'Anthropic, développeur du modèle de langage étendu Claude, sur la liste noire du Pentagone a secoué l'industrie de l'IA, déclenchant des batailles juridiques et soulevant de sérieuses questions sur l'influence gouvernementale sur le développement d'outils. Cependant, un développement significatif s'est produit : un juge américain a bloqué la désignation d'Anthropic comme risque pour la chaîne d'approvisionnement par le Pentagone. La juge de district Rita Lin avait précédemment remis en question les motivations du Département de la Défense (DoD), qualifiant leur désignation de « tentative de meurtre corporatif » et de « troublante ». Cette décision sans précédent, marquant la première fois qu'une entreprise américaine reçoit une telle désignation de sécurité nationale, a un impact direct sur le paysage concurrentiel des outils d'IA puissants comme Claude et ChatGPT d'OpenAI. Une décision est attendue prochainement, mais une injonction préliminaire a maintenant été accordée, la désignation du Pentagone étant suspendue et l'interdiction de Claude d'utilisation par le gouvernement bloquée. La désignation de risque pour la chaîne d'approvisionnement du Pentagone a été suspendue, et le tribunal a bloqué l'interdiction de Claude pour une utilisation gouvernementale.
Dans une victoire cruciale pour Anthropic, un juge américain a bloqué la décision du Pentagone de qualifier l'entreprise d'IA de risque pour la chaîne d'approvisionnement, une désignation qui aurait pu effectivement interdire Claude d'utilisation par le gouvernement. Le juge a invoqué des préoccupations selon lesquelles la désignation était une « notion orwellienne » et constituait potentiellement des « représailles au titre du Premier Amendement ». Cette injonction préliminaire suspend les efforts du Pentagone, offrant un répit à Anthropic alors que la bataille juridique se poursuit. Le cœur du litige tournerait autour de la volonté d'Anthropic d'adapter ses modèles d'IA Claude pour des applications de défense. Bien que les détails restent confidentiels, des rapports suggèrent une querelle sur la manière de militariser Claude, pouvant avoir conduit à l'inscription sur la liste noire suite à un désaccord. Un juge américain bloque la « notion orwellienne » du Pentagone visant à qualifier Anthropic de risque pour la chaîne d'approvisionnement et à interdire Claude au gouvernement, invoquant des préoccupations selon lesquelles la désignation était une « notion orwellienne » et constituait potentiellement des « représailles au titre du Premier Amendement ».
Cette désignation aurait pu gravement entraver la capacité d'Anthropic à obtenir de lucratifs contrats gouvernementaux, affectant directement les ressources disponibles pour le développement continu et la mise à l'échelle de ses modèles Claude. Pour les utilisateurs, cela signifie des limitations potentielles sur les lieux et les modalités d'intégration des capacités de Claude dans des applications du secteur public ou liées à la défense, étouffant sa pénétration du marché. Dans un développement connexe, Anthropic a accordé à Claude Code plus de contrôle, mais le garde sous contrôle, permettant une complétion de tâches plus autonome. De plus, Claude Code peut maintenant prendre le contrôle de l'ordinateur d'un utilisateur pour compléter des tâches, et son nouveau mode Auto vise à équilibrer la sécurité et la vitesse. En outre, Anthropic a annoncé que Claude peut maintenant utiliser l'ordinateur d'un utilisateur pour terminer des tâches dans une poussée d'agent d'IA. Cependant, l'entreprise est également sous le feu des projecteurs pour des problèmes de tarification et des bugs avec Claude Code, comme le rapporte Forbes Innovation. Anthropic : Problèmes de tarification majeurs avec les bugs de Claude Code ?
Dans une faille de sécurité significative, Anthropic a reconnu tester un nouveau modèle d'IA, nom de code 'Mythos', qui représente un 'changement d'étape' dans ses capacités. Cette révélation est survenue après que des détails sur le modèle non publié, ainsi que des informations sur une retraite des PDG sur invitation uniquement, aient été trouvés dans un dépôt de données non sécurisé. Exclusif : Anthropic reconnaît tester un nouveau modèle d'IA représentant un « changement d'étape » dans ses capacités, après qu'une fuite de données accidentelle ait révélé son existence. La fuite de données a également révélé des détails sur une retraite des PDG sur invitation uniquement, soulignant une faille de sécurité importante. Exclusif : Anthropic a laissé des détails sur un modèle non publié, une retraite de PDG sur invitation, dans un dépôt de données non sécurisé, lors d'une faille de sécurité importante.
En contraste frappant, OpenAI, le développeur derrière ChatGPT, semble avoir capitalisé sur l'incertitude initiale entourant la situation d'Anthropic. Le Pentagone aurait conclu un accord « opportuniste et bâclé » avec OpenAI peu après les premières préoccupations concernant la liste noire. Cette décision non seulement confère à ChatGPT une position significative dans les contrats de défense, mais met également en lumière la concurrence agressive pour les clients gouvernementaux à forte valeur ajoutée. Cependant, ce partenariat n'a pas été sans controverse, avec des rapports d'utilisateurs abandonnant ChatGPT et des protestations publiques contre la militarisation de l'IA, soulevant des questions sur la confiance des utilisateurs et les implications éthiques pour les modèles fondamentaux.
La sénatrice Elizabeth Warren a également interrogé le DoD sur cette liste noire, qu'elle suggère « semble être des représailles ». L'injonction récente, cependant, déplace le récit. Ce litige, désormais à un tournant grâce à la décision du juge, met en lumière l'intersection complexe du développement d'outils d'IA, de la sécurité nationale et de l'éthique d'entreprise. L'issue du recours juridique établira un précédent crucial sur la manière dont les gouvernements interagissent avec les principales entreprises d'IA et pourrait redéfinir les limites éthiques et les orientations stratégiques pour le développement futur des modèles d'IA. Le différend Anthropic-Pentagone marque un tournant pour l'industrie de l'IA.
Pendant ce temps, l'industrie plus large de l'IA est confrontée à un fossé croissant en matière de compétences, les entreprises d'IA notant que les utilisateurs expérimentés prennent de plus en plus d'avance. Le fossé des compétences en IA est là, selon une entreprise d'IA, et les utilisateurs expérimentés prennent de l'avance.
Tendances, nouveaux outils et analyses exclusives, chaque semaine.