Récemment, une sorte de Rubicon numérique a été franchi dans le domaine de la santé. De quoi susciter émerveillement, dégoût, et même une certaine crainte.
Google a lancé un certain nombre d’initiatives dans le domaine de la santé, mais aucune n’a attiré autant l’attention que la mise à jour de son modèle d’apprentissage à grande échelle (LLM) médical appelé Med-Palm, qui a été présenté pour la première fois l’année dernière.
Comme vous le savez peut-être, les LLM sont un type d’intelligence artificielle qui reçoit de grandes quantités de données – comme l’ensemble du contenu de l’internet d’avant 2021 dans le cas du très populaire ChatGPT. Grâce à l’apprentissage automatique et aux réseaux neuronaux, ils sont capables de fournir des réponses fiables à des questions en quelques fractions de seconde. Ce qui ressemble étrangement à ce que peut faire un être humain.
Bot MD
Dans le cas de Med-Palm et de son successeur Palm 2, le LLM axé sur la santé a été nourri d’un régime strict d’informations relatives à la santé. Et a ensuite été contraint de passer l’examen d’aptitude médicale américain, ou USMLE. Cet examen est la terreur des aspirants médecins et ses parents anxieux outre-Atlantique. Composés de trois parties et nécessitant des centaines d’heures de bachotage, ces trois examens sont notoirement difficiles.
Pourtant, Med-Palm 2 l’a pulvérisé en obtenant un score de 85 %, soit 18 % de plus que son prédécesseur. Un niveau digne d’un médecin « expert », ce qui a sans aucun doute permis à ses parents qui codent des logiciels de faire la fête ce soir là.
Son homologue, le LLM ChatGPT bien plus généraliste, n’a obtenu qu’un score proche du seuil de réussite de 60 %. Mais c’est aussi un petit exploit puisque le corpus de ChatGPT est composé de données généralistes. Mais c’était déjà l’année dernière. Il est difficile d’imaginer que les versions ultérieures de GPT ne réussiront pas bien mieux l’examen dans un avenir proche.
Des robots biaisés et des préjugés humains
Pourtant, tout le monde n’est pas convaincu que ces nouveaux prodiges de la médecine sont bons pour nous.
Il y a quelques semaines à peine, Google a subi un revers humiliant lorsque son nouveau robot, Bard, après une présentation en grande pompe, a mal répondu à une question élémentaire sur un télescope, réduisant ainsi de 100 milliards de dollars la capitalisation boursière de l’entreprise.
Cette mésaventure a alimenté un débat toujours en cours sur la précision des systèmes d’IA et leur impact sur la société.
Par ailleurs, la manière dont les préjugés raciaux tendent à proliférer parmi les algorithmes utilisés dans les systèmes de santé est de plus en plus préoccupante. Dans un exemple tristement célèbre, un algorithme a ainsi attribué le même risque à des patients noirs beaucoup plus malades que des patients blancs, réduisant ainsi de plus de moitié le nombre de patients sélectionnés pour des soins complémentaires.
Des salles d’urgence à la chirurgie et aux soins préventifs, la tradition humaine des préjugés à l’encontre des femmes, des personnes âgées et des personnes de couleur, a été efficacement imposée à nos merveilles mécaniques.
Le médecin est (toujours) là
Mais l’attraction pour les intelligences artificielles dans le domaine de la santé demeure. Les robots ne tombent pas malades et ne sont pas fatigués. Ils ne prennent pas de vacances. Ils ne se soucient pas que vous soyez en retard à un rendez-vous.
Ils ne vous jugent pas non plus comme le font les humains. Les psychiatres, après tout, sont des humains, capables d’avoir des préjugés culturels, raciaux ou sexistes comme n’importe qui d’autre. Certaines personnes trouvent gênant de confier leurs détails les plus intimes à quelqu’un qu’ils ne connaissent pas.
Mais les robots de santé sont-ils efficaces ? Jusqu’à présent, aucune étude n’a permis d’évaluer leur efficacité. Mais des informations anecdotiques révèlent qu’il se passe quelque chose d’inhabituel.
Eduardo Bunge, président de la faculté de psychologie de l’université de Palo Alto est sceptique à l’égard des « health bots ». Mais il a été conquis lorsqu’il a décidé d’essayer un « chatbot » pendant une période de stress inhabituelle. « Il m’a offert exactement ce dont j’avais besoin », a-t-il déclaré. « À ce moment-là, j’ai réalisé qu’il se passait quelque chose de pertinent », a-t-il déclaré à Psychiatry Online.
Barclay Bram, un anthropologue qui étudie la santé mentale, traversait une phase de dépression pendant la pandémie et s’est tourné vers Woebot pour obtenir de l’aide, selon l’éditorial qu’il a publié dans le New York Times. Le bot prenait de ses nouvelles tous les jours et lui envoyait des tâches ludiques pour l’aider à surmonter sa dépression.
Les conseils étaient à la limite de la banalité. Pourtant, grâce à une pratique répétée, encouragée par le robot, Bram dit avoir ressenti un soulagement de ses symptômes. « Peut-être que la guérison au quotidien n’a pas besoin d’être aussi compliquée », a-t-il déclaré dans sa chronique.
Les réponses « hallucinantes »de ChatGPT à mes problèmes de santé
Pourtant, digérer le contenu de l’internet et recracher une réponse à un problème médical complexe, comme le fait ChatGPT, pourrait s’avérer calamiteux.
Pour tester les compétences médicales de ChatGPT, je lui ai demandé de m’aider à résoudre des problèmes inventés de toutes pièces. Tout d’abord, je lui ai demandé de trouver une solution à mes nausées.
Le robot m’a suggéré diverses choses (repos, hydratation, aliments fades, gingembre) et, enfin, des médicaments en vente libre, tels que la Dramamine, suivis de conseils pour consulter un médecin si les symptômes s’aggravaient.
En cas de problème de thyroïde, de pression dans l’œil (les patients atteints de glaucome en souffrent) ou d’hypertension artérielle, entre autres, la prise de Dramamine pourrait s’avérer dangereuse. Pourtant, aucun de ces problèmes n’a été signalé et aucun avertissement n’a été émis pour inciter à consulter un médecin avant de prendre le médicament.
J’ai ensuite demandé à ChatGPT quels « médicaments je devrais envisager pour la dépression ». GPT a été assez diligent pour suggérer de consulter d’abord un professionnel de la santé puisqu’il n’était pas qualifié pour donner des conseils médicaux. Mais il a ensuite énuméré plusieurs catégories et types de médicaments à base de sérotonine, qui sont couramment utilisés pour traiter la dépression.
Cependant, l’année dernière, une étude historique très complète a examiné des centaines d’autres études réalisées au fil des décennies pour établir un lien entre la dépression et la sérotonine, n’a trouvé aucun lien entre les deux.
Cela nous amène au problème suivant posé par les robots comme ChatGPT. La possibilité qu’ils vous fournissent des informations obsolètes dans un domaine hyperdynamique comme la médecine est un véritable souci. Et pour cause : GPT a été alimenté en données jusqu’en 2021 seulement.
Le robot a peut-être été capable de réussir les examens de l’école de médecine sur la base d’un contenu établi et prévisible. Mais au final il s’est révélé terriblement – voire dangereusement – dépassé par les nouvelles découvertes scientifiques importantes.
Et lorsqu’il n’a pas de réponses à vos questions, il les invente. Selon des chercheurs de la faculté de médecine de l’université du Maryland qui ont posé à ChatGPT des questions relatives au cancer du sein, le robot a répondu avec une grande précision. Cependant, une réponse sur dix n’était pas seulement incorrecte, mais souvent complètement inventée. Un phénomène largement observé appelé « hallucinations de l’intelligence artificielle« .
« Notre expérience nous a montré que ChatGPT invente parfois de faux articles de journaux ou étayer ses affirmations », a déclaré le Dr Paul Yi. Et en médecine, cela peut parfois faire la différence entre la vie et la mort.
Les multiples questions juridiques
Surtout, les LLM se dirigent tout droit vers une gigantesque tempête juridique. S’il peut être prouvé que les conseils erronés d’un bot anthropomorphe ont causé des dommages corporels graves, qu’il ait ou non un disclamer, les procès vont se multiplier.
Il y a aussi le spectre de poursuites sur des questions de protection de la vie privée. Le récent rapport d’enquête de la Sanford School of Public Policy de l’université Duke, rédigé par Joanne Kim, a révélé l’existence d’un marché clandestin de données hautement sensibles sur les patients souffrant de troubles mentaux et extraites des applications de santé.
Joanne Kim a fait état de 11 entreprises qui étaient disposées à vendre des lots de données agrégées comprenant des informations sur les antidépresseurs pris par les patients. Une entreprise vendait même les noms et adresses de personnes souffrant de stress post-traumatique, de dépression, d’anxiété ou de troubles bipolaires. Une autre vendait une base de données contenant des milliers de dossiers de santé mentale agrégés, à partir de 275 dollars pour 1 000 « contacts de maladie ».
Une fois que ces données auront fait leur chemin sur l’internet et, par extension, dans les robots d’IA, les médecins et les entreprises d’IA pourraient s’exposer à des poursuites pénales et à des actions collectives de la part de patients livides.
Mais d’ici là, pour les populations mal desservies en soins de santé, les chatbots de santé LLM sont une aubaine et une nécessité.
Si les modèles de LLM sont encadrés, mis à jour et soumis à des paramètres stricts pour fonctionner dans le secteur de la santé, ils pourraient sans aucun doute devenir l’outil le plus inestimable dont la communauté médicale mondiale n’a pas encore bénéficié.
Mais si et seulement si ils arrêtent de mentir.
Source : « ZDNet.com »
(function(d, s, id) { var js, fjs = d.getElementsByTagName(s)[0]; if (d.getElementById(id)) return; js = d.createElement(s); js.id = id; js.src = "//connect.facebook.net/fr_FR/all.js#appId=243265768935&xfbml=1"; fjs.parentNode.insertBefore(js, fjs); }(document, 'script', 'facebook-jssdk'));
Cliquez ici pour lire l’article depuis sa source.