Le domaine en plein essor des services juridiques et de santé alimentés par l'IA connaît une traction significative, avec un nouveau financement pour une startup de legal tech et la révélation de statistiques d'utilisation pour un modèle d'IA majeur dans le domaine de la santé. Soxton, une entreprise juridique basée sur l'IA fondée par Logan Brown, a obtenu 2,5 millions de dollars de financement. La première exposition de Brown au système juridique, dès l'âge de 12 ans dans un bureau du procureur, a informé le développement de son entreprise, qui vise à exploiter l'IA pour les processus juridiques.
Ce financement souligne la confiance des investisseurs dans le potentiel de l'IA à perturber les services juridiques traditionnels, impactant potentiellement les outils juridiques d'IA existants en augmentant la concurrence et en stimulant l'innovation. Les outils offrant des gains d'efficacité dans la recherche, l'analyse de documents ou la communication client pourraient voir leur développement s'accélérer ou faire face à de nouveaux concurrents. Les utilisateurs des plateformes d'IA juridiques pourraient bénéficier de fonctionnalités plus sophistiquées et de coûts potentiellement réduits à mesure que le marché mûrit.
Pendant ce temps, ChatGPT d'OpenAI traite 600 000 requêtes hebdomadaires liées à la santé aux États-Unis, en particulier dans les zones où l'accès aux professionnels de la santé est limité, souvent appelées 'déserts hospitaliers'. Une part importante, sept requêtes sur dix, survient en dehors des heures de travail normales. Ces données soulignent le rôle essentiel que jouent les chatbots d'IA en tant que ressources d'information sanitaire accessibles, en particulier pour les populations mal desservies.
L'utilisation généralisée d'outils comme ChatGPT dans les soins de santé soulève des questions sur l'exactitude, la fiabilité et les implications éthiques de l'IA fournissant des conseils de santé. Bien que bénéfique pour l'accès immédiat à l'information, cela souligne également la nécessité d'outils d'IA robustes capables de fournir des conseils de santé vérifiés et contextuels. Cette tendance pourrait stimuler le développement d'assistants de santé spécialisés basés sur l'IA et influencer la manière dont les grands modèles linguistiques existants sont affinés pour les applications médicales, tout en suscitant des discussions sur les cadres réglementaires pour l'IA dans le domaine de la santé.
Cependant, l'adoption rapide des outils d'IA dans toutes les professions n'est pas sans risques, comme en témoigne un incident récent où The New York Times a écarté un pigiste pour avoir utilisé un outil d'IA qui a plagié un texte existant. Ce cas rappelle brutalement aux utilisateurs de tous les outils d'IA, y compris ceux des secteurs juridique et de la santé, l'importance de comprendre leurs capacités et leurs limites. Une surveillance appropriée et une révision humaine restent cruciales pour empêcher la diffusion de contenu inexact ou non original, garantissant que les outils d'IA augmentent, plutôt que de compromettre, les normes professionnelles.
Tendances, nouveaux outils et analyses exclusives, chaque semaine.