Intelligence artificielle
ChatGPT : les soignants doivent ils en avoir peur ?
Une des premières études au monde sur la performance de ChatGPT dans la prise en charge de cas cliniques réels a été menée en partie en Belgique, via l’hôpital Épicura et le CHU St-Pierre, en collaboration avec l’Hôpital Foch (Paris).
L’étude, parue dans le Lancet(1), a été menée sur 45 patients présentant des pathologies fréquentes en médecine générale ou oto-rhino-laryngologie et dont le tableau clinique a été présenté à l’intelligence artificielle(IA) ChatGPT. Dans cette étude, le médecin a soumis à l’IA les symptômes, antécédents, médicaments et données de l’examen clinique des patients. L’IA a été interrogée sur les potentiels diagnostics différentiels, diagnostic principal, examens complémentaires et traitements. Deux médecins ont ensuite analysé les résultats de performance de l’IA à l’aide d’un nouvel outil clinique développé et validé lors de cette étude, l’Artificial Intelligence Performance Instrument (AIPI).
Globalement, ChatGPT a proposé un diagnostic plausible et correct dans 63,5% des cas et des diagnostics différentiels (alternatifs) plausibles dans 28,5% des cas. Les examens complémentaires proposés par l’IA afin de confirmer le diagnostic étaient pertinents et totalement ou partiellement nécessaires dans 29% des cas. Quant aux traitements, ils étaient pertinents et nécessaires dans 22% des cas, et pertinents mais incomplets dans 16% des cas. Dans le reste des cas, les procédures thérapeutiques proposées étaient une association de traitements pertinents, nécessaires, inadéquats et inutiles.
Que retenir de cette étude ?
Si ChatGPT est capable d’émettre des diagnostics et de suggérer des examens complémentaires et traitements pertinents, il n’est pas encore en mesure aujourd’hui de se substituer au discernement du praticien.
D’une façon globale, l’IA fournit une liste de possibilités telle une encyclopédie virtuelle très performante mais ne serait pas (encore) capable de discerner et classer les diagnostics et examens complémentaires selon leur pertinence. Si l’IA peut s’avérer très utile dans l’accompagnement de la formation des jeunes médecins, elle ne se substitue pas au discernement humain du praticien. De plus, elle propose souvent une liste d’examens complémentaires dont une grande partie n’est pas utile ou pertinente, ce qui peut mener à des confusions chez les patients qui utiliseraient l’IA avant de consulter leur médecin.
«De futures recherches sont nécessaires pour explorer le potentiel de l’IA en médecine et lui trouver une place permettant d’améliorer la qualité des soins donnés aux patients», concluent les chercheurs.
1. https://www.thelancet.com/journals/lanonc/article/PIIS1470 2045(23)00298-X/fulltext
|