Grammarly fait face à un recours collectif pour sa fonction IA 'Expert Review'
TL;DR
- 1Grammarly fait face à un recours collectif concernant sa fonction IA 'Expert Review', mené par la journaliste Julia Angwin.
- 2La fonction aurait utilisé l'identité d'auteurs établis pour présenter des suggestions de rédaction sans leur consentement, violant les droits à la vie privée et à la personnalité.
- 3L'incident met en lumière des préoccupations cruciales concernant la confidentialité des données, la propriété intellectuelle et le développement éthique de l'IA pour tous les outils et plateformes d'écriture IA.
L'assistant d'écriture alimenté par l'IA, Grammarly, est désormais confronté à un recours collectif concernant sa fonction 'Expert Review', récemment abandonnée. La journaliste Julia Angwin mène le procès, accusant Grammarly d'avoir violé ses droits à la vie privée et à la personnalité en utilisant son identité et son image pour présenter des suggestions de rédaction générées par l'IA sans son consentement ni sa connaissance. Ce défi juridique met en évidence une tension croissante entre les fonctionnalités innovantes de l'IA et l'impératif éthique de la confidentialité des données et de la propriété intellectuelle sur le marché en pleine croissance des outils d'IA.
La fonction controversée 'Expert Review', que Grammarly a désactivée juste avant que le procès ne soit rendu public, offrait aux utilisateurs des suggestions d'édition avancées. Le problème, tel que souligné par Angwin et rapporté par des sources comme Wired AI, était que ces suggestions étaient souvent présentées comme émanant d'auteurs, d'universitaires ou d'autres personnalités reconnaissables. Angwin, journaliste lauréate du prix Pulitzer, allègue que sa persona a été utilisée de cette manière, transformant de fait elle-même et d'autres écrivains en 'éditeurs d'IA' sans aucune forme de compensation ni permission explicite, comme détaillé par TechCrunch AI. Cette pratique soulève de sérieuses questions sur le consentement, les deepfakes et l'utilisation commerciale non autorisée de l'identité des individus.
Pour Grammarly, un acteur dominant dans le domaine des assistants d'écriture IA, ce procès représente un défi important qui pourrait avoir un impact sur la confiance des utilisateurs et potentiellement entraîner des coûts juridiques et des dommages considérables. Plus largement, l'incident envoie un message clair à l'ensemble du paysage concurrentiel des outils d'IA. Les développeurs d'outils d'écriture et de génération de contenu par IA – de Jasper à Writer.com et d'autres – doivent examiner attentivement leurs sources de données, leurs pratiques d'entraînement de modèles et leurs implémentations de fonctionnalités pour s'assurer de leur conformité éthique. La question fondamentale de l'utilisation de données personnelles et d'identités sans consentement explicite menace directement la crédibilité et l'adoption des technologies d'IA par les utilisateurs, d'autant plus que le New York Times note que les frontières entre l'action humaine et celle de l'IA deviennent de plus en plus floues.
Le procès contraint à une conversation cruciale sur la responsabilité des fournisseurs d'outils d'IA. Il souligne que les fonctionnalités, aussi innovantes soient-elles, doivent adhérer à des normes éthiques strictes concernant les données personnelles, la propriété intellectuelle et les droits à la personnalité. Pour les utilisateurs d'outils d'IA, cette affaire met en évidence l'importance de comprendre comment leurs données, et potentiellement l'identité d'autrui, sont utilisées par les plateformes qu'ils emploient. À mesure que l'IA continue d'évoluer, la demande de transparence, de consentement et de cadres éthiques robustes ne fera que s'intensifier, façonnant le développement futur et l'adoption des solutions basées sur l'IA.
Sources
Newsletter IA hebdomadaire
Tendances, nouveaux outils et analyses exclusives, chaque semaine.