Anthropic a dévoilé Mythos, un nouveau modèle d'IA puissant conçu pour identifier les vulnérabilités critiques des logiciels, ainsi qu'une initiative majeure de cybersécurité nommée Project Glasswing. Cette double annonce positionne Anthropic pour jouer un rôle plus direct dans la sécurité des entreprises, impactant potentiellement le paysage concurrentiel des outils de cybersécurité basés sur l'IA. Cependant, le lancement a été accueilli avec une certaine prudence par l'entreprise elle-même, invoquant une utilisation potentielle abusive.
Le modèle Mythos, actuellement en préversion restreinte, démontre une capacité avancée à repérer des faiblesses sérieuses dans le code logiciel. Si cela promet d'être un outil inestimable pour les développeurs cherchant à renforcer leurs applications contre les attaques, cela soulève également des inquiétudes. Les experts en cybersécurité craignent que, s'il est mal utilisé, le modèle puisse être exploité par des acteurs malveillants pour découvrir et exploiter les vulnérabilités plus efficacement. Le déploiement prudent d'Anthropic, impliquant une coalition sélectionnée de géants de la technologie tels que Microsoft, Amazon, Apple, CrowdStrike et Palo Alto Networks, vise à atténuer ces risques. Cette approche prudente a suscité un débat important, certains se demandant si Anthropic limite l'accès principalement pour protéger Internet ou pour préserver son propre avantage concurrentiel. Des sources suggèrent que le lancement limité est une stratégie délibérée pour empêcher le modèle de tomber entre de mauvaises mains, une préoccupation partagée par les analystes du secteur. Anthropic a elle-même reconnu ces craintes, déclarant que la capacité du modèle à trouver des bugs dangereux pourrait être exploitée par des pirates informatiques. L'accès à Mythos a été considérablement restreint, une mesure qui souligne les risques perçus associés à ses puissantes capacités de détection de vulnérabilités.
Dans un développement connexe, OpenAI suivrait l'exemple d'Anthropic en restreignant l'accès à ses propres puissants outils d'IA pour la cybersécurité. Cela suggère une tendance croissante dans l'industrie vers un déploiement prudent de l'IA capable d'identifier les vulnérabilités logicielles, motivée par des préoccupations similaires en matière de sécurité. The Decoder rapporte que la démarche d'OpenAI fait écho à la stratégie d'Anthropic, indiquant une appréhension partagée quant au potentiel d'utilisation abusive par des acteurs malveillants.
Project Glasswing est le mouvement stratégique d'Anthropic pour exploiter sa puissance d'IA au profit de la cybersécurité défensive. En s'associant à des entreprises de cybersécurité de premier plan et à de grands acteurs technologiques, Anthropic ne se contente pas d'offrir son modèle Mythos, mais favorise également un environnement collaboratif pour le partage de renseignements sur les menaces et les solutions de sécurité pilotées par l'IA. Cette initiative pourrait considérablement renforcer les capacités des plateformes de cybersécurité existantes et des outils d'IA, comme ceux proposés par CrowdStrike et Palo Alto Networks, en intégrant une détection avancée des vulnérabilités par l'IA. L'implication de ces entreprises suggère un changement potentiel vers des piles de sécurité plus natives à l'IA.
L'introduction de Mythos et du Project Glasswing pourrait remodeler le marché des outils de sécurité IA. Les entreprises qui se concentraient auparavant sur le développement plus large d'agents IA, comme Anthropic avec ses modèles Claude et ses outils de création d'agents visant à abaisser la barrière à l'entrée pour les entreprises, font désormais une entrée directe dans le secteur de la cibersecurité. Cette démarche concurrence les entreprises spécialisées en cybersécurité IA et pourrait également influencer le développement d'agents IA à usage général, tels que ceux simplifiés pour une utilisation quotidienne par des plateformes comme Poke via SMS. La sortie contrôlée et la nature collaborative du Project Glasswing suggèrent qu'Anthropic privilégie un déploiement responsable, en contraste frappant avec les déploiements plus larges et moins restreints observés avec certains autres modèles d'IA. Cette approche semble également avoir été bien accueillie par le marché, les actions cyber et technologiques montrant une réaction positive, contrairement aux annonces précédentes d'Anthropic. Dans un développement distinct, Anthropic a également exploré les applications thérapeutiques de l'IA, son modèle Claude subissant une évaluation 'psychiatrique' approfondie, bien que cela soit sans rapport avec le lancement de Mythos. Cette recherche sur la compréhension psychologique de l'IA met en évidence les divers intérêts de recherche d'Anthropic en matière d'IA.
Tendances, nouveaux outils et analyses exclusives, chaque semaine.