Le problème d’un facteur de risque de surdose basé sur l’IA pour les analgésiques

Le fait que nous soyons évalués et jugés pour diverses situations de la vie n’est pas nouveau. Les notes scolaires, les taux de crédit pour les prêts et même les scores de sécurité pour la conduite d’une Tesla sont des exemples familiers et nouveaux de la façon dont nous essayons de réduire des relations complexes à des chiffres simples pour nous donner accès à une éducation plus poussée, à des prêts ou à des logiciels.

Ce qui est nouveau, en revanche, c’est que ces évaluations deviennent également plus courantes dans d’autres secteurs, qu’elles sont calculées par l’intelligence artificielle et qu’elles peuvent entraîner des effets secondaires inattendus. Par exemple, l’évaluation de la probabilité de récidive des criminels a été prise pour cible par les activistes lorsqu’il s’est avéré que COMPAS – le nom du logiciel – était principalement discriminatoire à l’égard des minorités et évaluait la pauvreté dont étaient issus les criminels plus que leur probabilité réelle de récidive. Cela a eu des conséquences dramatiques pour les personnes concernées : Les juges qui ont utilisé ce logiciel pour déterminer les peines ont sanctionné ces délinquants par des peines de prison plus longues.

Exemple du score de risque d’overdose de NarxCare

Aujourd’hui, une autre note de risque de ce type a été critiquée, et cette fois-ci, elle a commencé avec les meilleures intentions du monde. Face à la crise des opioïdes aux États-Unis, où certains analgésiques avaient fait l’objet d’une forte promotion de la part de la société pharmaceutique à l’origine de leur fabrication et avaient été généreusement prescrits par les médecins, le médicament apparemment non addictif a conduit à une pandémie de dépendance aux opioïdes. En effet, il s’est avéré que la société pharmaceutique avait supprimé les résultats de ses propres recherches sur la dépendance, si bien que les États-Unis parlent même d’une « crise des opioïdes ».

La société Appriss est entrée en scène. Elle exploite de vastes bases de données de patients et de médecins et utilise l’IA pour calculer un score de risque d’overdose à partir des données, indiquant le risque élevé pour un patient de recevoir une overdose d’analgésiques par le biais de médicaments prescrits. Si la base de données NarxCare n’était initialement prévue que comme un outil supplémentaire pour les médecins prescripteurs, elle est devenue de plus en plus importante au fil du temps. Il est désormais obligatoire dans tous les États américains sauf un, et avec l’attention médiatique et politique portée à la crise des opioïdes, les médecins ressentent une pression pour prendre davantage en compte ce score. Des procès contre les médecins qui n’ont pas tenu compte du score se profilent à l’horizon, ce qui les incite à adopter le score sans critique.

Plusieurs études ont montré que le score de risque d’overdose ne tient pas ses promesses. Partant d’une base de données trop petite et donc pas assez significative, d’un surplus de patients masculins dans l’ensemble des données, de l’absence de prise en compte, par exemple, des cas d’abus sexuels chez les patientes, ce qui entraîne une augmentation des prescriptions d’antidépresseurs, des données manifestement peu liées entrent également dans le calcul. Et cela a à voir avec ce qu’on appelle le « doctor shopping ». Cela signifie que certains patients essaient d’abuser du système non seulement en se faisant prescrire des analgésiques par un seul médecin, mais aussi en consultant plusieurs médecins, parfois même dans d’autres États, et en essayant de se faire prescrire des analgésiques par chacun d’eux.

Cependant, cela introduit des erreurs douloureuses dans le score. Les patients dont la situation s’aggrave, ou qui subissent une intervention chirurgicale à la suite d’un accident ou d’une autre maladie, ont soudainement un certain nombre de médecins supplémentaires, les spécialistes, dans leurs antécédents médicaux, ce qui affecte négativement le score de risque de surdose. Le nombre croissant de médecins traitants s’ajoute à la catégorie du « Doctor Shopping ». Oui, même les vétérinaires y sont répertoriés. Par exemple, le magazine Wired rapporte le cas d’un patient qui a adopté deux chiens âgés et malades dans un refuge et à qui le vétérinaire a prescrit des analgésiques pour leur traitement. Cependant, comme le vétérinaire prescrit les médicaments au nom du propriétaire de l’animal et non des chiens, le vétérinaire et les analgésiques prescrits apparaissent dans son score.

Sorry Not Sorry

40 Kunstgriffe für Minister, Manager und sonstige Mistkerle, die Scheiße gebaut haben und nun die Aufregung nicht verstehen.

Dieses Buch kann bereits beim Verlag oder Amazon vorbestellt werden.

Le résultat peut avoir de graves conséquences : les médecins et les pharmaciens soupçonnent qu’ils ont moins affaire à un patient qu’à une personne toxicomane. La façon dont ils se comportent donc autour du patient change radicalement. De l’attention sincère au reproche. Ce score conduit aujourd’hui à ne plus administrer d’analgésiques aux patients souffrant de douleurs. Oui, même certains médecins ont refusé de continuer à soigner les patients qu’ils avaient soignés pendant des années en tant que patients. Ils les ont fait tomber.

Des analyses ont montré que si les prescriptions d’analgésiques ont diminué de 10 % après l’introduction du score de risque d’overdose, les suicides et les overdoses ont augmenté d’un tiers. Les patients désespérés ont essayé d’obtenir des analgésiques d’autres sources. Sans soins médicaux, ils ont fait une overdose d’analgésiques provenant de sources douteuses. Ou bien ils étaient si désespérés et ne pouvaient plus supporter la douleur qu’ils ne voyaient pas d’autre issue que de se tuer.

Ainsi, ce qui était à l’origine une bonne idée avec la meilleure intention de fournir aux médecins un outil d’évaluation du risque d’overdose a été transformé par l’attention actuelle portée à la crise des opioïdes et son introduction dans tous les États en tant que base de données recommandée, bien que non officiellement approuvée par la US Food and Drug Administration (FDA), en un outil d’IA que les médecins ne peuvent négliger qu’à leurs propres risques.

Comme dans d’autres cas, le biais des données et une composition inadéquate des facteurs pour calculer un score basé sur l’IA ont de graves conséquences sur la vie des personnes concernées. Avec l’utilisation croissante de l’IA dans tous les aspects de notre vie, la discussion sur le bon usage de l’IA devient urgente.

Un article plus long (en Anglais) est paru dans le magazine Wired en octobre 2021.

Laisser un commentaire