Il apparaît de plus en plus clairement que les médecins font partie des professions menacées par la montée de l’intelligence artificielle. C’est ce qu’illustrent deux études de l’Université de Stanford, qui se sont intéressées à la capacité de diagnostic de l’intelligence artificielle agissant seule ou avec des médecins en chair et en os, par rapport au médecin seul. Elles montrent que l’IA propose des diagnostics plus exacts que les docteurs humains et « raisonne » même mieux en termes d’éthique médicale pour la prise de décisions difficiles.
Il faut évidemment tenir compte du fait que l’intelligence artificielle est alimentée par des données fournies par des êtres humains et qu’elle peut donc être orientée en un sens ou dans un autre.
Médecins + IA font mieux que des médecins seuls
Il n’empêche : selon le Dr Jonathan H. Chen, principal auteur des deux études, les réponses informatiques appuyées sur l’intelligence artificielle aux questions concernant la maladie dont était atteint un patient et la manière dont ces réponses avaient été élaborées ont non seulement dépassé qualitativement ce que proposaient les médecins, mais ont surpris les enquêteurs qui s’attendaient à de tout autres réponses.
Le grand modèle de langage utilisé pour les études était ChatGPT. Sans l’assistance de ce « LLM », les médecins ont atteint un score de 74 % pour leur diagnostic. Aidés par ChatGPT, ils ont gagné deux points pour atteindre 76 % d’exactitude. L’IA seule arrivait à 90 %.
Une seconde expérience évaluait la prise de décision dans des situations cliniques complexes. Pour cette deuxième étude, 46 médecins utilisant un robot LLM faisaient face à 46 médecins devant se contenter de leurs références médicales et d’Internet, tandis qu’un robot LLM seul était confronté aux mêmes situations.
L’IA diagnostique mieux et explique mieux ses décisions
Il s’agissait d’analyser le cas de cinq patients, et dans chaque évaluation, il fallait fournir des réponses détaillées à la fois quant à la décision finale et au raisonnement qui y avait conduit. Là encore, c’est l’IA qui a remporté les meilleurs scores.
Ce n’est pas une raison pour laisser les robots seuls face à un malade, selon le Dr Chen. L’IA ne saurait remplacer l’homme, assure-t-il, et il encourage les patients à ne jamais se fier à une simple intelligence artificielle pour obtenir des conseils médicaux.
Cependant il revient un tant soit peu de son idée initiale selon laquelle la combinaison entre un médecin et un robot LLM offrirait les meilleurs résultats. Mais il note qu’à l’heure actuelle, les médecins ne sont guère préparés à interagir avec un robot « chatbot » : « La plupart ignorent même de quoi il s’agit. Ils ne savaient vraiment pas comment l’utiliser. »
Il juge donc important que les médecins acquièrent de nouvelles compétences techniques, voire qu’il soit assuré une formation de mise à niveau pour chacun d’entre eux afin d’apprendre à utiliser « ces nouveaux outils puissants ». C’est une technologie qui va potentiellement apporter des changements profonds à la manière dont les médecins prennent des décisions et offrent des traitements, assure-t-il.
Les médecins supplantés par l’IA ? Pas si vite…
Plusieurs remarques s’imposent ici.
D’une part, des décennies de décervelage pédagogique délibéré ont porté atteinte aux capacités d’analyse et de raisonnement, donnant d’ailleurs, spécialement dans le domaine des études médicales, une prime à ceux qui sont les plus capables d’apprendre par cœur et de « faire du même » sans avoir la capacité de se poser des questions. L’expérience du médecin chevronné n’est plus ce qu’elle était.
Il suffit d’en parler autour de soi pour être aussitôt assailli d’anecdotes sur des diagnostics aberrants. J’ai en tête une étiquette de « covid symptomatique » apposée récemment à une jeune personne qu’un autre médecin a expédiée deux jours plus tard aux urgences, où on lui a découvert une masse saignante dans le cerveau qu’il a fallu extraire par voie chirurgicale.
C’est assurément la formation qui est en cause, et non la « supériorité » de l’IA.
Deuxième remarque : les médecins se trouvent de plus en plus souvent dans des situations délicates où ils se demandent s’il faut ou non poursuivre des traitements lourds, et où l’idée de la « mort choisie » vient polluer la pensée et le sens moral du respect de la vie. Demain, laissée seule, l’IA médicale n’aura-t-elle pas pour mission de faire ce type de choix, en ayant d’ailleurs été programmée à cette fin ?
L’IA un outil puissant, mais c’est aussi un outil qui peut être manipulé dans le sens de la culture de mort.