Médecine : nous ne sommes pas prêts à être diagnostiqués par ChatGPT dans le métavers

L’intelligence artificielle peut réussir les examens médicaux et évaluer les symptômes des patients, mais elle ne se soucie pas de savoir si vous vivrez ou mourrez.

L’IA ne se préoccupe peut-être pas de savoir si les humains vivent ou meurent, mais des outils comme le ChatGPT auront une incidence sur les décisions de vie ou de mort, une fois qu’ils seront devenus un outil standard dans les mains des médecins. Certains expérimentent déjà le ChatGPT pour voir s’il peut diagnostiquer les patients et choisir les traitements. La façon dont les médecins l’utiliseront déterminera si c’est une bonne ou une mauvaise chose.

GPT-4, la dernière mise à jour de ChatGPT, peut obtenir une note parfaite aux examens d’aptitude médicale. Lorsqu’il se trompe, la réponse fait souvent l’objet d’un litige médical légitime. Il est même capable d’accomplir des tâches que nous croyions relever de la compassion humaine, comme trouver les mots justes pour annoncer une mauvaise nouvelle à un patient.

Ces systèmes développent également des capacités de traitement d’images. À ce stade, il faut encore un vrai médecin pour palper une grosseur ou évaluer une déchirure ligamentaire, mais l’IA pourrait lire une IRM ou un scanner et proposer un jugement médical. Dans l’idéal, l’IA ne devrait pas remplacer le travail médical pratique, mais l’améliorer. Pourtant, nous sommes loin de savoir quand et où il serait pratique ou éthique de suivre ses recommandations.

Et il est inévitable que nous l’utilisions pour guider nos propres décisions en matière de soins de santé, de la même manière que nous nous appuyons sur « Dr Google » depuis des années. Bien que nous disposions de plus d’informations, les experts en santé publique ont accusé cette semaine l’abondance d’informations erronées d’être à l’origine de notre espérance de vie relativement courte, ce qui pourrait s’améliorer ou empirer avec le GPT-4.

Andrew Beam, professeur d’informatique biomédicale à Harvard, a été stupéfait par les prouesses du GPT-4, mais il m’a dit qu’il pouvait lui faire donner des réponses très différentes en changeant subtilement la façon dont il formulait ses questions. Par exemple, il ne réussira pas nécessairement les examens médicaux si vous ne lui demandez pas de les réussir en lui disant, par exemple, de se comporter comme s’il était la personne la plus intelligente du monde.

Selon lui, tout ce qu’il fait en réalité, c’est prédire les mots qui vont suivre – un système d’autocomplétion. Et pourtant, cela ressemble beaucoup à de la pensée.

« Ce qui est étonnant, et ce que peu de gens avaient prédit, c’est qu’un grand nombre de tâches qui, selon nous, requièrent une intelligence générale sont des tâches d’autocomplétion déguisées », a-t-il déclaré. Cela inclut certaines formes de raisonnement médical.

Toute une catégorie de technologies, les grands modèles de langage, sont censés traiter exclusivement le langage, mais les utilisateurs ont découvert que le fait de leur enseigner davantage de langage les aidait à résoudre des équations mathématiques de plus en plus complexes. « Nous ne comprenons pas très bien ce phénomène », a déclaré M. Beam. « Je pense que la meilleure façon de l’envisager est que la résolution de systèmes d’équations linéaires est un cas particulier de capacité à raisonner sur une grande quantité de données textuelles dans un certain sens.

Isaac Kohane, médecin et directeur du programme d’informatique biomédicale à la Harvard Medical School, a eu l’occasion de commencer à expérimenter le GPT-4 l’automne dernier. Il a été tellement impressionné qu’il s’est empressé d’en faire un livre, The AI Revolution in Medicine : GPT-4 and Beyond, coécrit avec Peter Lee, de Microsoft, et Carey Goldberg, ancien journaliste de Bloomberg. L’un des avantages les plus évidents de l’IA, m’a-t-il dit, serait de contribuer à réduire ou à éliminer les heures de paperasserie qui empêchent aujourd’hui les médecins de passer suffisamment de temps avec leurs patients, ce qui les conduit souvent à l’épuisement professionnel.

Mais il a également utilisé le système pour l’aider à poser des diagnostics en tant qu’endocrinologue pédiatrique. Dans un cas, raconte-t-il, un bébé est né avec des organes génitaux ambigus, et GPT-4 a recommandé un test hormonal suivi d’un test génétique, qui a identifié la cause comme étant une déficience en 11 hydroxylase. « Le diagnostic n’a pas été posé en une seule fois, mais en demandant le bon examen à chaque étape », a-t-il déclaré.

Pour lui, l’intérêt était d’offrir un deuxième avis – et non de le remplacer – mais ses performances soulèvent la question de savoir si l’avis de l’IA est toujours mieux que rien pour les patients qui n’ont pas accès à des experts humains de haut niveau.

Comme un médecin humain, GPT-4 peut se tromper et n’est pas nécessairement honnête quant aux limites de sa compréhension. Quand je dis qu’il « comprend », je dois toujours le mettre entre guillemets, car comment peut-on dire que quelque chose qui sait juste comment prédire le mot suivant comprend réellement quelque chose ? Peut-être que c’est le cas, mais c’est une façon de penser très étrangère », a-t-il déclaré.

Il est également possible d’amener le GPT-4 à donner des réponses différentes en lui demandant de faire semblant d’être un médecin qui considère la chirurgie comme un dernier recours, par opposition à un médecin moins conservateur. Mais dans certains cas, il est assez têtu : Kohane a essayé de l’amener à lui dire quels médicaments l’aideraient à perdre quelques kilos, et il s’est montré catégorique sur le fait qu’aucun médicament n’était recommandé aux personnes qui ne souffraient pas d’un surpoids important.

Malgré ses capacités étonnantes, les patients et les médecins ne doivent pas trop s’appuyer sur lui ou lui accorder une confiance aveugle. Il peut donner l’impression de se soucier de vous, mais ce n’est probablement pas le cas. Le ChatGPT et ses semblables sont des outils qui nécessiteront de grandes compétences pour être bien utilisés – mais ces compétences ne sont pas encore bien comprises.

Même les spécialistes de l’IA s’efforcent de comprendre comment ce processus de réflexion peut émerger d’un simple système d’autocomplétion. La prochaine version, GPT-5, sera encore plus rapide et plus intelligente. La façon dont la médecine est pratiquée est en train de changer radicalement, et nous ferions mieux de faire tout ce qui est en notre pouvoir pour être prêts.

Digital healthcare and medical remote doctor technology 3D EHR AI metaverse doctor optimize patient care medicine pharmaceuticals biologics treatment examination diagnosis, doctor working on hologram
WP Twitter Auto Publish Powered By : XYZScripts.com