Regardez le monde
avec les yeux ouverts

Inscrit ou abonné ?
CONNEXION

UP', média libre
grâce à ses lecteurs
Je rejoins

rejoignez gratuitement le cercle des lecteurs de UP’

IA médecine

Des médecins de Stanford mettent en garde contre les dangers de l’IA dans le diagnostic médical

Commencez
L’intelligence artificielle se développe à pas de géants et investit tous les secteurs et particulièrement le domaine médical. S’appuyant sur des bases de données de plus en plus volumineuses, les algorithmes d’aide au diagnostic prennent une place prépondérante dans les décisions en matière de soins de santé pour les patients. Des médecins de la prestigieuse école de médecine de Stanford, qui compte sept prix Nobel, viennent de publier un article en forme d’alerte : les médecins et les scientifiques doivent attentivement examiner les risques éthiques liés à l’intégration de l’IA dans leur prise de décision.
 
Dans un article publié le 15 mars dans le New England Journal of Medicine, les auteurs, tout en reconnaissant l‘énorme avantage que peut représenter l’aide au diagnostic pour la santé des patients, avertissent sur les pièges éthiques qui accompagnent le recours à l’IA. Leur alerte vient à un moment où la pression de la société se fait de plus en forte pour généraliser l’utilisation de tels outils.
Le professeur Danton Char, co-auteur de l’article, avertit : « Nous avons commencé à remarquer, à partir de mises en œuvre dans des domaines autres que les soins de santé, qu’il peut y avoir des problèmes éthiques avec l’apprentissage algorithmique lorsqu’il est déployé à grande échelle. »
 

Trois préoccupations majeures

Les auteurs soulèvent trois préoccupations majeures.
En premier lieu, les données utilisées pour créer des algorithmes d’aide à la décision médicale peuvent contenir des biais. Ceux-ci sont susceptibles d’entacher les recommandations cliniques qu’ils génèrent. Plus précisément les auteurs soulignent que les algorithmes peuvent être conçus pour fausser les résultats en fonction des opérateurs qui les développent et des motivations plus ou moins transparentes des programmeurs, des entreprises ou des systèmes de santé qui les déploient.
 
En second lieu, les signataires de l’article appellent les médecins à s’efforcer de bien comprendre comment les algorithmes sont créés. A ce titre, ils doivent être en mesure d’évaluer de façon critique la source des données utilisées pour créer les modèles statistiques produisant les diagnostics. Les médecins doivent parfaitement comprendre le fonctionnement de ces modèles afin d’éviter d’en dépendre aveuglément. Ainsi, par exemple, les données recueillies sur la santé des patients, les diagnostics et les résultats font partie des connaissances collectives des publications et des informations recueillies par les systèmes de santé et peuvent être utilisées sans tenir compte de l’expérience clinique et de l’aspect humain des soins aux patients.
 
Enfin, l’orientation clinique fondée sur l’aide automatisée au diagnostic introduit de facto une tierce partie dans la relation entre le médecin et son patient. Ce biais compromet la dynamique de la responsabilité médicale et l’attente légitime de confidentialité. Le professeur Char illustre cette question : « Nous devons être prudents concernant les soins aux personnes suggérés par les algorithmes. En effet, les humains peuvent faire une chose que les machines sont incapables de faire : mettre de côté nos idées et les évaluer de manière critique. »
 

Les sources de biais

Pour les auteurs de l’article, l’intention du concepteur de l’algorithme peut être une source de biais majeure. Ils citent comme exemple le cas de l’algorithme de Volkswagen qui permettait aux véhicules de passer des tests d’émissions en réduisant leurs émissions d’oxydes d’azote pendant les essais. Dans ce cas d’école, l’algorithme avait été conçu pour obtenir un résultat précis.
Le professeur David Magnus, auteur principal de l’article et directeur du Stanford Center for Biomedical Ethics, a déclaré que le biais peut influer sur les données sur la santé de trois façons : le biais humain, le biais introduit par la conception et le biais dans l’utilisation des données par les systèmes de soins de santé. Le médecin précise : « Vous pouvez facilement imaginer que les algorithmes intégrés au système de soins de santé pourraient refléter des intérêts différents et contradictoires. Que se passe-t-il si l’algorithme est conçu dans le but d’économiser de l’argent ? Que se passe-t-il si des décisions de traitement différentes sont prises en fonction du statut d’assurance ou de la capacité financière du patient ? »
 
Les auteurs appellent ainsi à une réflexion sur la tension qui existe partout entre les objectifs d’amélioration de la santé et les critères économiques. Le Dr Magnus précise : « Les constructeurs et les acheteurs de tels systèmes d’IA ne sont probablement pas les mêmes que ceux qui dispensent des soins au chevet du patient ».
Des lignes directrices éthiques doivent être créées. Les médecins qui utilisent des systèmes d’IA peuvent être mieux informés sur la façon dont ils sont construits, sur la nature des données sur lesquels ils s’appuient et sur leurs limites. « Rester ignorant sur la construction de ces systèmes ou permettre leur construction en tant que boîtes noires pourrait conduire à des résultats éthiquement problématiques. » poursuit le professeur Magnus.
 
Ces mises en garde se situent dans un contexte de pression sociale, poussant à l’incorporation des outils les plus récents pour obtenir de meilleurs résultats pour la santé des patients.  « L’intelligence artificielle sera omniprésente dans les soins de santé d’ici quelques années », promet Nigam Shah, co-auteur, professeur agrégé de médecine. « Mais les systèmes de soins de santé doivent être conscients des pièges qui se sont produits dans d’autres industries », ajoute-t-il.
 

Les data pourraient-elles remplacer le médecin ?

Les auteurs insistent sur l’obligation des médecins de systématiquement pondérer ce qu’ils apprennent de l’IA par rapport à leur propre expérience clinique. « Une trop grande confiance dans le guidage de la machine pourrait conduire à des prophéties auto-réalisatrices » écrivent-ils.
Par exemple, si les données montrent que certains grands prématurés ou certains types de lésions cérébrales ne sont pas soignées par les cliniciens, l’algorithme interprètera ces informations en déterminant que ces types de diagnostics sont toujours fatals.
 
Les auteurs ne rejettent pas l’IA.  Au contraire, ils attendent par exemple que des algorithmes soient conçus pour aider à résoudre la disparité des soins de santé en compensant des biais connus ou en identifiant les domaines où davantage de recherches pourraient être menées pour compléter les données existantes. Le professeur Magnus donne ainsi l’exemple d’une étude pilote en cours sur un algorithme développé à Stanford pour prédire la nécessité d’une consultation en soins palliatifs, illustrant comment un examen collaboratif et minutieux de la conception d’un algorithme et de l’utilisation des données peut éviter toute mauvaise interprétation des informations.
 
Pour que l’IA soit parfaitement intégrée dans le processus médical, le Dr Magnus insiste sur une condition : « Les médecins et les concepteurs doivent travailler en étroite collaboration pour s’assurer que l’intégration des prédictions dans l’équation de soins inclut des garanties que le médecin comprend parfaitement  et que les problèmes du patient sont bien compris ».
 
Enfin, l’utilisation de l’IA dans le processus médical pose aussi la question de la confidentialité de la relation médecin-patient. En effet, dès lors que les systèmes intelligents d’aide au diagnostic sont intégrés dans les soins cliniques, il devient de plus en plus difficile de dissimuler des informations dans les dossiers électroniques, car les patients dont les données ne sont pas enregistrées ne peuvent pas bénéficier d’analyses. Le Dr Magnus affirme que cette pression pour l’accès aux données par différentes parties est particulièrement intense dans les domaines qui se développent rapidement tels que les tests génétiques et le séquençage.
 
Le mot de la fin revient au professeur Shah du Center for Biomedical Informatics Research de Stanford : « La société veut aller toujours plus vite et cherche des réponses rapides. Je pense que nous devons être plus réfléchis dans la mise en œuvre de l’IA dans le processus de diagnostic médical. » Une parole de grande sagesse.
 
 
 

Quelque chose à ajouter ? Dites-le en commentaire.

 

0 Commentaires
Retour d'information sur Inline
Voir tous les commentaires
intelligence artificielle
Article précédent

« L'intelligence artificielle va bouleverser l'ordre mondial »

Agressive IA
Prochain article

Par nature, l’IA pourrait devenir super-violente pour atteindre ses objectifs

Derniers articles de Intelligence artificielle

REJOIGNEZ

LE CERCLE DE CEUX QUI VEULENT COMPRENDRE NOTRE EPOQUE DE TRANSITION, REGARDER LE MONDE AVEC LES YEUX OUVERTS. ET AGIR.
logo-UP-menu150

Déjà inscrit ? Je me connecte

Inscrivez-vous et lisez trois articles gratuitement. Recevez aussi notre newsletter pour être informé des dernières infos publiées.

→ Inscrivez-vous gratuitement pour poursuivre votre lecture.

REJOIGNEZ

LE CERCLE DE CEUX QUI VEULENT COMPRENDRE NOTRE EPOQUE DE TRANSITION, REGARDER LE MONDE AVEC LES YEUX OUVERTS ET AGIR

Vous avez bénéficié de 3 articles gratuits pour découvrir UP’.

Profitez d'un accès illimité à nos contenus !

A partir de 1.70 € par semaine seulement.
Partagez6
Tweetez
Partagez
WhatsApp
Email