Anthropic a considérablement élargi son accord de calcul avec Google et Broadcom pour plusieurs gigawatts de capacité TPU, avec de nouvelles capacités devant être opérationnelles à partir de 2027. Cette expansion intervient dans un contexte de demande croissante pour la puissance de calcul IA, comme le rapporte TechCrunch AI ici et détaillé par CNBC Tech ici. L'accord renforcé vise à sécuriser les ressources de calcul substantielles dont Anthropic a besoin pour développer et améliorer davantage ses modèles d'IA avancés, y compris son modèle phare, Claude.
Dans un développement parallèle significatif, Anthropic a également dévoilé un aperçu de son nouveau et puissant modèle d'IA, Mythos, dans le cadre d'une nouvelle initiative de cybersécurité. Cette démarche, rapportée par TechCrunch AI ici, fait partie d'un effort plus large, détaillé par Wired AI ici, où Anthropic s'associe à ses rivaux pour aborder les préoccupations de sécurité de l'IA, y compris le potentiel d'utilisation de l'IA dans le piratage. Cette initiative, baptisée Projet Glasswing, vise à défendre de manière proactive contre les utilisations malveillantes de l'IA.
Cet investissement substantiel dans l'infrastructure souligne la concurrence intense et la croissance rapide au sein du secteur de l'IA. Dans un développement connexe, Uber aurait choisi les puces IA d'Amazon, mettant en évidence les diverses stratégies employées par les entreprises pour sécuriser le matériel nécessaire, comme l'a précédemment couvert TechCrunch AI ici. Le partenariat entre Anthropic et Google devrait avoir un impact significatif sur l'industrie de l'IA, en particulier dans le développement de grands modèles de langage. Grâce à la capacité de calcul accrue, Anthropic pourra former et déployer des modèles d'IA plus avancés, conduisant potentiellement à des avancées dans des domaines tels que le traitement du langage naturel et l'apprentissage automatique.
Au-delà de l'infrastructure et du développement de modèles, Anthropic, aux côtés de Google et OpenAI, collabore également pour lutter contre la copie non autorisée de leurs modèles d'IA par des concurrents, notamment en Chine, comme l'a précédemment rapporté The Decoder ici. Cette initiative vise à protéger la propriété intellectuelle de ces entreprises leaders en IA et à prévenir l'utilisation abusive de leurs technologies de pointe.
Parallèlement, OpenAI a été actif sur plusieurs fronts. L'entreprise a récemment annoncé la 'Bourse de sécurité OpenAI' ('OpenAI Safety Fellowship') pour renforcer ses efforts de recherche en matière de sécurité ici. Cependant, des défis internes persistent, des rapports récents suggérant qu'une 'fuite des cerveaux' en matière de sécurité chez OpenAI pourrait être attribuée à des facteurs aussi subjectifs que les 'vibes de Sam Altman', selon The Decoder ici. De plus, OpenAI chercherait à faire enquêter les procureurs généraux de Californie et du Delaware sur le comportement 'anti-concurrentiel' présumé d'Elon Musk, avant un procès important en avril, comme détaillé par CNBC Tech ici.
OpenAI a également exposé une vision plus large pour l'avenir de l'IA, proposant des concepts tels que des fonds de richesse publique, des taxes sur les robots et une semaine de travail de quatre jours pour gérer les impacts économiques et sociétaux de l'intelligence artificielle, comme exploré par TechCrunch AI ici. Dans d'autres nouvelles sur l'IA de Google, Google Maps peut désormais rédiger des légendes pour les photos grâce à l'IA ici, et l'entreprise a discrètement lancé une application de dictée IA qui fonctionne hors ligne ici. Pendant ce temps, le modèle robotique GEN-1 de General a atteint une fiabilité de 99 % dans des tâches allant du pliage de boîtes à la réparation d'aspirateurs, comme le rapporte Ars Technica AI ici.
Tendances, nouveaux outils et analyses exclusives, chaque semaine.