L'IA va-t-elle remplacer les médecins ? L'écart diagnostic vs humain en 2026
Publié le 2026-04-28 par RiskQuiz Research
L'IA va-t-elle remplacer les médecins ? L'écart diagnostic vs humain en 2026
Non. L'IA ne remplace pas les médecins. Mais presque tout le reste du métier change — et les médecins qui prétendent le contraire sont ceux qui prennent le plus de risques.
Voici la situation début 2026. Les États-Unis manquent d'environ 84 930 médecins et 250 710 infirmiers diplômés, selon le Bureau of Labor Statistics. La FDA a autorisé à ce jour 1 247 dispositifs médicaux dotés d'IA, dont 295 rien qu'en 2025 — une accélération d'une année sur l'autre. La radiologie représente environ 873 de ces autorisations. Le marché mondial de l'IA dans la santé passe de 26,6 milliards de dollars en 2024 à une projection de 187 milliards de dollars d'ici 2030 (Scispot, 2026 ; Oxford Home Study, 2024). Les scribes IA ambiants font gagner aux médecins en moyenne 30 minutes par jour sur la documentation, The Permanente Medical Group documentant 15 791 heures cliniciens économisées sur 2,5 millions de consultations en une seule année (UCLA Health, 2024 ; AMA, 2025).
Deux tendances se déroulent en même temps, dans les mêmes hôpitaux : une pénurie croissante de médecins et le plus important déploiement d'IA clinique de l'histoire de la médecine. Elles ne sont pas en tension. L'IA est déployée parce que la médecine manque de médecins, pas parce qu'elle en a trop.
La vraie question pour les médecins n'est donc pas « vais-je être remplacé ». C'est : quelles parties du métier deviennent IA-first dans les trois ans, qu'est-ce qui reste humain, et que devriez-vous faire dès maintenant pour être du bon côté de cette ligne ?
La réponse courte
Les médecins présentent l'un des profils de risque de remplacement par l'IA les plus bas parmi toutes les professions intellectuelles à hauts revenus — obtenant généralement un score de 18 à 32 sur notre évaluation du risque IA pour les spécialités cliniques avec un contact patient significatif, un travail procédural ou une prise de décision complexe. C'est sensiblement plus bas que les développeurs logiciels, les avocats ou les analystes financiers, que nous avons tous analysés ailleurs dans cette série.
La raison n'est pas que l'IA est mauvaise en médecine. La raison est que la médecine est mauvaise pour déployer l'IA. L'autorisation n'est pas l'adoption. La capacité n'est pas la sécurité. Et chaque dynamique réglementaire, juridique et de confiance dans le système pousse fortement contre les soins IA autonomes.
Mais le risque n'est pas nul, et il n'est pas réparti uniformément. Certaines spécialités — radiologie, anatomopathologie, dermatologie, certaines parties des soins primaires, triage en télémédecine — font face à une restructuration concrète d'ici cinq ans. D'autres — chirurgie, médecine d'urgence, psychiatrie, médecine interne complexe, soins palliatifs — font face à une augmentation qui élargit le rôle plutôt que de le réduire. Le schéma observé tout au long de notre série de professions s'applique aussi à la médecine : l'IA absorbe le travail, pas le jugement, et elle absorbe le travail de manière inégale. Notre analyse complémentaire sur la question de savoir si l'IA va remplacer les infirmiers trace le schéma parallèle au chevet du patient, où l'IA absorbe la couche documentaire en laissant le cœur clinique intact.
L'écart de capacité est déjà comblé sur certaines tâches
C'est la partie de l'histoire que la plupart des médecins sous-estiment.
Sur des tâches diagnostiques étroites et bien définies, l'IA égale ou dépasse désormais les performances des médecins — et le fait depuis plusieurs années. La littérature évaluée par les pairs n'est plus ambiguë. Les systèmes IA pour le dépistage de la rétinopathie diabétique, certains cancers en imagerie radiologique, l'interprétation de l'ECG et la classification d'images en dermatologie démontrent régulièrement une non-infériorité ou une supériorité par rapport aux médecins spécialistes sur les jeux de données de référence. Aidoc et Viz.ai signalent désormais les suspicions d'AVC, d'embolie pulmonaire et d'hémorragie intracrânienne au scanner avant qu'un radiologue n'ouvre le dossier. Pearl AI valide les radiographies dentaires pour la détection de caries à un niveau audité comme comparable à celui des dentistes en milieu de carrière.
C'est la démo. Le déploiement, c'est une autre histoire.
Une enquête PMC de 2024-2025 a révélé que 41 % des radiologues estiment que les outils d'IA ne répondent pas de manière adéquate aux besoins cliniques du monde réel. Soixante-trois pour cent s'inquiètent des biais. Soixante-trois pour cent s'inquiètent de la responsabilité juridique. La confiance des patients dans l'IA clinique se situe à 59 %, contre 85 % d'optimisme chez les médecins (PMC / Nature, 2024-2025). Bien que les radiologues soient impliqués dans le développement de 78 % des produits autorisés, l'adoption réelle au sein du segment hospitalier de la radiologie n'a atteint qu'une part de marché estimée à 48 % (FDA, 2025 ; Siemens Healthineers, 2025 ; DeepHealth, 2025).
Puis il y a le problème d'équité. Une analyse conjointe Harvard / MIT / Johns Hopkins en 2025 a révélé que seuls 25 % des dispositifs médicaux IA autorisés par la FDA communiquent des performances ventilées par tranches d'âge, et moins de 33 % publient des performances spécifiques au sexe. De nombreux outils ont été entraînés sur des jeux de données démographiquement étroits et obtiennent des résultats mesurablement inférieurs sur les patients sous-représentés dans les données d'entraînement — patients âgés, femmes dans les modèles cardiologiques, patients à peau foncée dans les modèles dermatologiques.
C'est la raison structurelle pour laquelle les médecins ne peuvent pas être remplacés par l'IA clinique dans un horizon raisonnablement proche. Le modèle qui gagne en précision sur les benchmarks doit encore survivre à une déposition pour faute professionnelle, à une famille en colère, à une physiologie inhabituelle, à un rappel de la FDA, à un projet d'intégration au DPI, à un comité d'accréditation, et à un directeur financier. Le médecin se trouve au point de convergence de chacune de ces contraintes. Retirer le médecin ne supprime pas seulement un coût ; cela supprime la seule entité du système qui possède à la fois l'autorité légale et le jugement clinique dans le même corps.
Ce que l'IA clinique fait déjà en 2026
Ceci n'est pas de la spéculation. Ce qui suit est déployé à grande échelle dans de vrais hôpitaux en ce moment même.
Scribes IA ambiants (Nuance DAX, Abridge, Nabla, Suki, Microsoft DAX Copilot). C'est le plus important changement de workflow qui touche les médecins en 2026, et les données sont concrètes. UCLA Health a rapporté que les scribes IA ambiants réduisent le temps de documentation des médecins d'environ 30 minutes par jour — soit environ 7,5 heures par semaine par clinicien (UCLA Health, 2024). L'étude 2025 de l'American Medical Association a montré une réduction absolue de 21,2 % du burnout à 84 jours pour les médecins utilisant la documentation ambiante. Mass General Brigham avait déployé des scribes IA ambiants auprès de plus de 3 000 praticiens en avril 2025. Pour les médecins, ce n'est pas abstrait. C'est la différence entre saisir des notes à 22h et rentrer voir ses enfants.
IA diagnostique autorisée par la FDA en imagerie. La base de données Digital Health de la FDA recense désormais 1 247 dispositifs médicaux IA autorisés, l'imagerie représentant la part du lion. Aidoc, Viz.ai, GE Healthcare, Siemens Healthineers et les offres DeepHealth signalent les suspicions d'AVC, d'EP, d'HIC, de lésions mammaires et de nodules pulmonaires — souvent en pré-lecture du dossier avant que le radiologue ne l'ouvre. Les radiologues qui gagnent sont ceux qui considèrent l'IA comme une couche de triage qui priorise leur travail, pas comme un concurrent lisant la même image.
Aide à la décision clinique et scores d'alerte précoce. Glass Health (un outil gratuit de diagnostic différentiel assisté par IA utilisé par les cliniciens pour organiser leurs observations et générer des listes de diagnostics différentiels) et les modèles prédictifs d'Epic — y compris le Deterioration Index — sont désormais intégrés aux workflows hospitaliers dans de nombreux systèmes de santé américains. Ce sont des outils d'augmentation. Ils lèvent la main. Ils ne prennent pas la décision. Mais ils restructurent la façon dont les médecins priorisent leur attention au sein d'un service.
Découverte de médicaments par IA et accélération des essais cliniques. L'IA a comprimé les délais de développement pharmaceutique d'un cycle typique de 12 à 15 ans à 18 à 30 mois dans certaines filières, avec plus de 31 molécules découvertes par l'IA désormais en essais cliniques et un marché de la découverte de médicaments par IA projeté à 16,5 milliards de dollars d'ici 2034, contre environ 1,7 milliard en 2023 (ScienceDirect, 2025 ; Drug Discovery Trends, 2024). Pour les médecins impliqués dans la recherche clinique, cela signifie des cycles plus rapides, davantage d'essais et davantage de composés conçus par IA à valider.
IA grand public : triage par ChatGPT et équivalents. C'est le front sous-discuté de cette guerre. Les patients arrivent avec des hypothèses diagnostiques générées par Claude, ChatGPT, Gemini et des applications de santé grand public. Les médecins qui traitent cela comme une nuisance perdent en relation. Les médecins qui le traitent comme un point de départ collaboratif — « Montrez-moi ce que votre session IA a dit, puis je vais vous expliquer ce qu'elle a manqué » — rapportent de meilleures consultations, pas de moins bonnes.
Où le risque se concentre : une carte par spécialité
Le risque pour les médecins est réel mais inégalement réparti. La carte honnête ressemble à peu près à ceci.
Restructuration la plus rapide à court terme (3 à 7 ans) : radiologie, anatomopathologie, dépistage dermatologique, dépistage de la rétinopathie, triage de soins primaires en télémédecine. Ce sont des spécialités où une fraction élevée de la charge de travail quotidienne consiste en classification d'images ou en correspondance de motifs par rapport à une référence fixe. Le travail ne disparaît pas — les volumes en radiologie continuent de grimper — mais le rôle évolue de « lecteur primaire » vers « vérificateur, escalateur et spécialiste des cas complexes ». Les radiologues qui ont vu cela venir en 2018 et ont développé une expertise des workflows sur Aidoc, Viz.ai et outils similaires sont aujourd'hui indispensables. Ceux qui ne l'ont pas fait se retrouvent à concurrencer sur le prix.
Restructuration moyenne (5 à 10 ans) : médecine interne générale, certaines parties de la médecine de famille, médecine hospitalière, optimisation des workflows en anesthésiologie, dépistage en ophtalmologie, interprétation d'images en cardiologie. Ici, l'IA devient un puissant copilote — diagnostics différentiels, interactions médicamenteuses, posologie, planification du suivi, automatisation des autorisations préalables — mais le médecin reste le décideur intégrateur. La forme de la journée change davantage que les effectifs.
Restructuration la plus faible (plus d'une décennie, peut-être jamais à cette échelle) : chirurgie, médecine d'urgence, psychiatrie, soins palliatifs, addictologie, pédiatrie complexe, obstétrique pendant l'accouchement, soins critiques. Ce sont des spécialités denses en exactement les tâches sur lesquelles l'IA actuelle est la moins performante : jugement en temps réel sous incertitude, compétence procédurale manuelle, triage multi-patients, travail émotionnel, communication familiale complexe, et le type de reconnaissance de patterns qui dépend du fait d'avoir les deux mains sur un patient. L'IA peut transcrire la note d'un psychiatre. Elle ne peut pas mener l'entretien, tenir le silence, ni saisir la phrase incidente qui recadre le diagnostic.
La lecture honnête de l'IA et de la médecine en 2026 n'est ni « l'IA va remplacer les médecins » ni « l'IA ne remplacera jamais les médecins ». C'est : l'IA restructure le métier de l'intérieur, le plus vite dans les spécialités les plus proches de la simple correspondance de motifs, le plus lentement dans les spécialités les plus proches du jugement humain incarné.
Notez qu'il s'agit d'une carte des workflows, pas d'une prévision salariale. La rémunération des spécialités dépend du mix de payeurs, des revenus procéduraux et de l'offre, pas seulement de l'exposition à l'IA. Le radiologue qui gère aujourd'hui une pratique réfléchie augmentée par l'IA ne gagne pas moins que celui qui a refusé d'intégrer. Dans de nombreux systèmes, il gagne davantage.
Le mur de la responsabilité
Il existe une contrainte que les médecins sous-estiment et que les optimistes de l'IA ignorent presque toujours : le droit de la responsabilité médicale aux États-Unis et dans la plupart des pays européens n'a actuellement aucun cadre clair pour une IA autonome prenant une décision clinique.
Lorsqu'un outil d'IA fait une recommandation et qu'un médecin agit en conséquence, le médecin est responsable du résultat. Lorsqu'un outil d'IA fait une recommandation erronée, le médecin qui n'a pas su l'écarter est responsable du résultat. Lorsqu'un outil d'IA agit de manière autonome et se trompe — choisissez votre exemple : cancer manqué, hémorragie manquée, sepsis manqué — le système juridique n'a actuellement pas de défendeur. Les fournisseurs travaillent activement, avec des clauses d'indemnisation et un libellé contractuel significatifs, pour qu'il en reste ainsi.
Soixante-trois pour cent des radiologues désignent la responsabilité comme une préoccupation majeure (PMC, 2024-2025). Ils ne sont pas paranoïaques. Ils lisent correctement le paysage juridique. Tant et aussi longtemps que les législateurs ne construiront pas un régime cohérent pour la responsabilité médicale de l'IA — et ils en sont loin — chaque outil d'IA clinique requiert un humain accrédité au point de décision. Ce n'est pas un correctif temporaire. C'est une caractéristique structurelle de la façon dont les soins médicaux sont achetés, vendus, assurés et plaidés.
C'est la même dynamique que nous avons documentée dans notre analyse de l'IA dans la pratique juridique : plus l'outil devient performant, plus l'humain formé capable d'identifier ses modes de défaillance spécifiques — et d'en absorber la responsabilité — prend de la valeur.
Ce qui est réellement protégé : les cinq choses que l'IA ne prendra pas
Sur les 1 247 dispositifs médicaux IA autorisés par la FDA, aucune autorisation ne fait ce qui suit :
- Assumer la responsabilité juridique et éthique d'une décision clinique. Chaque outil approuvé est approuvé en tant qu'aide à la décision, avec un humain accrédité dans la boucle. Il n'existe aucune IA prescriptive ou diagnostique autonome autorisée par la FDA pour les soins cliniques de routine.
- Mener un entretien patient complexe et ambigu où le diagnostic se cache dans ce que le patient ne dit pas. La compétence du grand interniste — savoir quelle question poser ensuite — n'est pas une compétence que possèdent les modèles actuels.
- Réaliser un geste. La chirurgie robotique est pilotée par l'humain. Les robots chirurgicaux autonomes restent au mieux une démonstration de recherche et un non-départ réglementaire pour un usage général.
- Mener une conversation difficile. Les discussions sur les objectifs des soins, les conversations sur le statut de réanimation, l'annonce d'un diagnostic terminal, la gestion des conflits familiaux en fin de vie — voilà le cœur irréductible de la médecine, et les patients ne veulent pas qu'elles soient gérées par un modèle.
- Assumer la responsabilité de la prise en charge globale. Coordonner entre spécialistes, naviguer dans l'assurance, plaider pour un traitement non standard, gérer le contrat tacite entre médecin et patient sur des années — c'est un rôle relationnel qu'aucune architecture d'IA actuelle n'est conçue pour remplir.
Cette liste recoupe étroitement notre analyse plus large des emplois que l'IA ne remplacera pas et la carte des emplois IA 2030. Le schéma se répète à travers les professions : l'IA absorbe le travail, l'humain garde la relation et la responsabilité.
Compétences à développer en 2026
Pour les médecins, « se prémunir contre l'avenir » n'est pas un slogan. C'est un petit nombre de comportements concrets qui, selon les données, séparent les médecins qui prospèrent de ceux qui se sentent écrasés par leur propre DPI. Nous avons rédigé un traitement plus complet de cela dans notre playbook des compétences IA, mais pour la médecine spécifiquement, les cinq compétences suivantes concentrent le levier.
1. Adopter un scribe IA ambiant et le maîtriser. Choisissez-en un — Abridge, Nuance DAX, Nabla, Suki, ou ce que votre hôpital déploie — et devenez l'utilisateur le plus fluide de votre service. Les données des 30 minutes par jour sont réelles (UCLA Health, 2024). Les données de réduction du burnout sont réelles (AMA, 2025). Les collègues qui font cela rentrent plus tôt et ceux qui ne le font pas perdent lentement le fil. C'est le changement de compétence à plus haut ROI disponible pour un médecin en exercice en 2026.
2. Lire la base de données des dispositifs médicaux IA de la FDA dans votre spécialité. Elle est gratuite, publique, et presque aucun clinicien ne l'utilise. Filtrez par spécialité. Lisez les résumés d'autorisation des cinq principaux outils. Notez qui a testé sur quelles populations. Notez quels outils publient des données par sous-groupes d'âge, de sexe et d'origine ethnique — et lesquels ne le font pas. Vous en saurez instantanément plus sur l'IA clinique dans votre domaine que 90 % de vos collègues, et vous pourrez poser les bonnes questions lorsque le comité IA de votre hôpital sollicitera votre avis.
3. Développer un muscle personnel d'ingénierie de prompts. Passez une heure par semaine à utiliser Claude, ChatGPT ou Gemini pour des tâches connexes : synthèse de littérature, brouillons d'éducation patient, génération de diagnostics différentiels sur des cas difficiles, préparation des examens du Board, rédaction de lettres de relecture par les pairs. Vous développerez rapidement un sens de là où ces outils sont fiables, où ils hallucinent, et quel type de prompt extrait une vraie réponse plutôt qu'une fabrication confiante. C'est la compétence IA la plus transférable à travers la médecine ; le scribe ambiant est le gain de workflow, mais le prompting est l'habitude cognitive.
4. Auditer un outil d'IA de votre lieu de travail pour son équité. Choisissez un outil déjà déployé dans votre hôpital. Trouvez son résumé d'autorisation FDA. Vérifiez quelles données de performance par sous-groupes sont publiées, et lesquelles manquent. Rédigez un mémo d'une page. Partagez-le avec votre comité qualité. Cette compétence — audit de biais en IA clinique — devient un poste à part entière qui recrute (Chief AI Ethics, AI Equity Specialist, Clinical AI Validator), et le faire ne serait-ce qu'une fois vous positionne comme un clinicien crédible et au fait de l'IA.
5. Évoluer vers des rôles patient-facing augmentés par l'IA. Les patients arrivent avec des questions et hypothèses générées par l'IA. Les médecins qui s'approprient cela — « montrez-moi ce que votre session IA a dit » — rapportent des consultations plus enrichissantes, pas moins. La compétence est au chevet, pas technique : c'est la compétence d'intégrer une source extérieure que le patient apporte dans une vraie consultation clinique. C'est aussi la compétence qui se cumule dans le temps, parce que le volume de questions patient générées par l'IA ne fait que croître.
Un repère raisonnable pour la fin 2026 : scribe IA ambiant utilisé activement au quotidien, suffisamment fluide en IA clinique pour enseigner à un junior comment évaluer un nouvel outil, et un travail écrit — même un mémo interne — qui démontre que vous avez audité un système d'IA dans votre spécialité.
La lecture provocante
Voici la partie que la plupart des couvertures « IA en médecine » ne diront pas à voix haute.
Chaque médecin lisant ceci conservera probablement son emploi pour le reste de sa carrière. L'offre de médecins est contrainte, la demande augmente avec le vieillissement des populations, et le fossé réglementaire et juridique autour de la pratique clinique est plus profond que celui de toute autre profession intellectuelle. La pénurie est réelle et structurelle — 84 930 médecins manquants rien qu'aux États-Unis — et l'IA est plausiblement la seule façon dont le système peut la résorber.
Mais la médecine que la prochaine génération de médecins pratiquera ne ressemblera pas à la médecine dans laquelle vous avez été formé. La journée chargée en lecture en radiologie cède la place à une journée chargée en vérification. La journée chargée en documentation en soins primaires cède la place à une journée chargée en conversation. L'effort de génération de diagnostics différentiels qui définissait les jeunes internistes se déplace vers la qualité de décision et la communication. Les spécialités sont redessinées autour de ce que l'IA peut et ne peut pas faire, pas autour de ce que les programmes de résidence étaient structurés pour enseigner en 2010.
Les médecins les plus à risque ne sont pas ceux remplacés par l'IA. Ce sont ceux remplacés par des collègues qui utilisent l'IA bien, alors qu'eux ne le font pas.
Voilà le vrai profil de risque. Pas le chômage. La stagnation, l'obsolescence, et une lente dérive vers l'extrémité à plus faible marge de votre spécialité pendant que la version augmentée par l'IA de vous-même se déplace vers l'extrémité à plus haute marge. C'est le même schéma que nous avons documenté dans notre analyse du remplacement des analystes de données et à travers le hub des 20 professions que nous avons étudiées.
FAQ
L'IA va-t-elle remplacer les médecins d'ici 2030 ?
Non. L'horizon 2030 ne voit pas de pratique médicale par IA autonome dans aucun régime réglementaire majeur. La pénurie américaine de 84 930 médecins et de 250 710 infirmiers diplômés tire activement le déploiement de l'IA vers l'augmentation, pas le remplacement. La FDA a autorisé 1 247 dispositifs médicaux IA, et chacun d'eux suppose un humain accrédité dans la boucle. Des tâches spécifiques en médecine — premières lectures en radiologie, dépistage de la rétinopathie, certaines classifications dermatologiques — seront largement pilotées par l'IA d'ici 2030. Le rôle de médecin, lui, ne le sera pas.
Quelles spécialités médicales sont les plus à risque face à l'IA ?
La radiologie, l'anatomopathologie, la dermatologie, certaines parties des soins primaires et le triage en télémédecine font face à la plus importante restructuration des workflows dans une fenêtre de 5 à 7 ans. Ce n'est pas la même chose que la perte d'emplois — l'emploi en radiologie continue de croître sur le volume — mais la forme de la journée se déplace vers la vérification, le travail sur cas complexes et la spécialisation procédurale. Les spécialités les moins à risque sont la chirurgie, la médecine d'urgence, la psychiatrie, les soins palliatifs, l'obstétrique pendant l'accouchement et les soins critiques, où le jugement incarné, la compétence procédurale ou la complexité relationnelle dominent le travail.
L'IA peut-elle diagnostiquer mieux qu'un médecin ?
Sur des tâches de référence étroites et bien définies, l'IA égale ou bat désormais les médecins spécialistes en moyenne — rétinopathie diabétique, certains cancers en imagerie, interprétation d'ECG, classification d'images en dermatologie. En déploiement clinique réel avec des données désordonnées, des patients multi-systèmes et des cas limites, l'écart de performance s'effondre, et le médecin formé qui intègre la sortie de l'IA surpasse soit l'un soit l'autre seul. La formulation honnête est « IA + médecin bat médecin, et IA + médecin bat IA » — c'est exactement pourquoi aucun grand système de santé ne déploie d'IA diagnostique autonome sans signature du médecin, et pourquoi aucun n'est attendu pour le faire dans l'environnement réglementaire prévisible.
Les étudiants en médecine devraient-ils encore choisir la radiologie ?
Oui, en connaissance de cause. La prédiction de 2016 selon laquelle « les radiologues devraient cesser d'en former de nouveaux » s'est trompée sur le volume, sur la responsabilité et sur le calendrier de déploiement. La radiologie en 2026 est l'une des spécialités les plus augmentées par l'IA en médecine et reste très demandée. Les radiologues qui prospéreront au cours des 20 prochaines années sont ceux qui considèrent l'IA comme un accélérateur de workflow et qui poursuivent une sous-spécialisation interventionnelle, mammaire, pédiatrique, neuro ou autre sous-spécialisation procédurale. Les radiologues qui auront du mal sont ceux qui refusent d'intégrer l'IA dans leurs lectures et qui concourent en vitesse contre des outils qui seront toujours plus rapides.
La vraie question
La bonne question n'est pas « l'IA va-t-elle remplacer les médecins ». C'est : quelle part de la médecine, dans dix ans, ressemblera à celle dans laquelle vous avez été formé — et quel est votre plan pour les parties qui ne ressembleront plus ?
Si vous voulez une réponse structurée pour votre rôle spécifique, votre pays spécifique et votre spécialité spécifique, réalisez l'évaluation du risque IA. Cela prend environ trois minutes, et le rapport est construit à partir des mêmes jeux de données — autorisations FDA, données de pénurie BLS, études de déploiement évaluées par les pairs — qui ont alimenté cet article. La page méthodologie expose précisément comment le score est calculé et quelles hypothèses sous-tendent le modèle, afin que vous puissiez décider vous-même si le modèle correspond à votre réalité.
Les médecins qui resteront précieux en 2030 ne sont pas ceux qui combattent l'IA. Ce sont ceux qui apprennent à la lire comme ils lisent un patient.