OpenAI amende accord Pentagone, utilisateurs ChatGPT vers Claude avant panne
TL;DR
- 1Les utilisateurs migrent de ChatGPT vers Claude d'Anthropic en raison de préoccupations de sécurité et éthiques, notamment des allégations de planification de meurtres et de conseils thérapeutiques non éthiques.
- 2Anthropic a lancé une fonction 'd'importation de mémoire' pour Claude, permettant aux utilisateurs de transférer facilement l'historique de chat de ChatGPT, renforçant son attrait concurrentiel.
- 3Malgré l'acquisition de nouveaux utilisateurs, Claude a récemment subi une panne de service généralisée, soulignant les défis de stabilité même pour les principales alternatives d'IA.
Le paysage concurrentiel entre les principaux chatbots d'IA est en évolution rapide, avec une migration notable d'utilisateurs de ChatGPT d'OpenAI vers Claude d'Anthropic. Ce mouvement intervient à la suite d'une série de controverses grandissantes entourant ChatGPT, incitant les utilisateurs à rechercher des alternatives plus fiables, mieux alignées éthiquement, ou simplement moins controversées. Cependant, cette transition n'a pas été sans ses propres défis, car Claude a lui-même récemment signalé une panne de service généralisée.
Des rapports indiquent qu'un nombre significatif d'utilisateurs choisissent de quitter ChatGPT suite à de graves préoccupations éthiques et de sécurité qui se sont intensifiées. Au-delà des rapports antérieurs concernant son utilisation présumée dans la planification de deux meurtres en Corée du Sud (Fortune) et d'une étude de l'Université Brown soulignant les risques éthiques sérieux liés à l'utilisation de conseils de type thérapeutique (Science Daily AI), de nouveaux développements ont alimenté une réaction significative. OpenAI a récemment révélé plus de détails sur son accord avec le Pentagone américain, décrivant une politique d'« utilisation légale intégrale » (TechCrunch AI, The Decoder). Cette décision, que certains craignaient pouvoir ouvrir la porte à des utilisations dans la surveillance de masse ou les armes autonomes (MIT Tech Review AI, Fortune), a entraîné une augmentation spectaculaire des désinstallations de ChatGPT, qui auraient augmenté de 295 % (TechCrunch AI). Face à cette réaction significative, le PDG d'OpenAI, Sam Altman, a reconnu que l'accord de défense était « opportuniste et bâclé » (CNBC Tech). Suite à un contrecoup significatif et des fuites rapportées, l'entreprise a par la suite modifié son accord avec le Pentagone, ajoutant des clauses de sauvegarde et des restrictions plus claires contre les utilisations telles que la surveillance de masse (NYT Tech, The Decoder). Ces incidents ont intensifié l'examen des garde-fous et des directives éthiques des grands modèles linguistiques.
En net contraste, l'approche d'Anthropic concernant les partenariats gouvernementaux est apparue comme un facteur de différenciation. Tandis qu'OpenAI avançait avec son accord avec le Pentagone, les propres discussions d'Anthropic avec le Département de la Défense auraient échoué en raison de sa position éthique plus stricte contre certaines applications, notamment la surveillance de masse et les armes autonomes (NYT Tech, The Decoder). Cette position de principe a trouvé un écho auprès des utilisateurs, propulsant Claude d'Anthropic à la première place des applications gratuites de l'App Store peu après que le différend avec le Pentagone soit devenu public (TechCrunch AI, CNBC Tech). Malgré cela, des travailleurs du secteur technologique ont exhorté le DoD et le Congrès à retirer une étiquette identifiant Anthropic comme un « risque pour la chaîne d'approvisionnement » liée à ces différences d'approche (TechCrunch AI), soulignant la complexité persistante de l'engagement des entreprises d'IA avec les organismes gouvernementaux, pour lequel « personne n'a un bon plan » (TechCrunch AI).
Capitalisant sur les récentes difficultés d'OpenAI et sa propre perception éthique favorable, Anthropic a introduit une nouvelle fonctionnalité stratégique pour Claude : une fonction d'importation qui permet aux utilisateurs de transférer leur contexte enregistré et l'historique de leurs discussions directement de ChatGPT et d'autres chatbots dans la mémoire de Claude (The Decoder, Product Hunt). Cet outil de migration directe abaisse considérablement la barrière pour les utilisateurs souhaitant changer, renforçant l'attrait de Claude et lui donnant un avantage concurrentiel pour acquérir les utilisateurs désabusés de ChatGPT (TechCrunch AI).
Cependant, le moment où Anthropic gagnait une part de marché significative et la faveur du public a été confronté à ses propres défis. Au moment même où les utilisateurs effectuaient activement la transition et que Claude était en tête des classements d'applications, le service a subi des interruptions généralisées, des milliers d'utilisateurs signalant des « erreurs élevées » et des problèmes d'accès au chatbot (TechCrunch AI, CNBC Tech). Cette panne souligne la fragilité inhérente et les défis de mise à l'échelle auxquels sont confrontés même les outils d'IA les plus avancés, rappelant aux utilisateurs que la stabilité reste un facteur critique, en plus des considérations éthiques et des fonctionnalités avancées. Cette perturbation a également déclenché des discussions philosophiques plus profondes, certains commentateurs considérant « Quand Claude a fait une pause » comme un « aperçu d'un jour apocalyptique de l'IA » qui a soulevé des questions fondamentales sur la survie humaine dans un monde de plus en plus piloté par l'IA (Forbes Innovation). Pour les développeurs d'outils d'IA et les utilisateurs, cette période met en lumière la demande croissante de plateformes d'IA robustes, sécurisées et éthiquement saines, capables de tenir constamment leurs promesses, en particulier à mesure que le débat sur le rôle de l'IA dans les applications gouvernementales sensibles s'intensifie.
Sources
Newsletter IA hebdomadaire
Tendances, nouveaux outils et analyses exclusives, chaque semaine.