31/01/2011

Épidémiologie: quand les vrais faux et les faux vrais sèment le doute.

On a tous tendance à croire que la médecine est une science exacte depuis que la logique Pasteurienne (un germe => une maladie => un traitement ) s'est imposée en dogme. Des symptômes, liés à la maladie, poussent le patient à consulter. Le médecin, dans sa démarche diagnostic, fait des tests pour prouver ou infirmer la présence de la cause et prescrire le médicament qui vous sauvera la vie. Les récents scandales liés à l'industrie pharmaceutique ébranle déjà cette certitude au niveau des traitements. En réalité, l'art du diagnostic est lui même soumis à beaucoup d'incertitudes, notamment au niveau des tests. Autrement dit, et bien que cela soit difficile à assumer en terme de santé, aucun test n'est infaillible: il y a toujours une proportion de « faux positifs » (FP) et de « faux négatifs » (FN). Pour un test dichotomique, de type oui/non, on peut résumer ça sous la forme de ce tableau:

tab gen.jpeg

Ce type de test se caractérise par 2 variables, comprises entre 0 et 1 (c'est à dire 0% et 100%):

  • sa sensibilité: c'est à dire la probabilité d'être détecté positif si on est vraiment malade

Se = VP / (VP + FN) = VP / ensemble des vrais malades

 

  • sa spécificité: c'est à dire la probabilité d'être détecté négatif si on n'est pas malade.

Sp= VN / (VN + FP) = VN / ensemble des non malades

 

Aucun test au monde n'a une sensibilité ou une spécificité de 100%. On doit donc choisir le test adéquat en fonction, notamment, des conséquences des faux négatifs et des faux positifs. On choisira un test à haute sensibilité pour éliminer un maximum de faux négatifs (FN): quand la maladie est grave, facilement curable et que les faux positifs sont « acceptables ». Par exemple quand on teste une poche de sang pour le VIH avant la transfusion: on accepte de jeter un faux positif mais pas de transfuser un faux négatif. A l'inverse on choisira un test à haute spécificité quand on veut réduire les faux positifs (FP): entre autre quand les conséquences du positif sont importantes soit au niveau psychologique soit au niveau des conséquences du traitement. Par exemple, quand on teste le VIH chez une personne volontaire: on ne veut pas annoncer un tel diagnostic et commencer un traitement lourd en termes d'effets secondaires... pour rien!

Un exemple de test trés sensible mais peu spécifique est la prise de tension artérielle: on détectera à tous les coups les hypertendus mais aussi tous les gars émotifs devant l'infirmière sexy (donc beaucoup de FP et peu de FN).


Outres ses caractéristiques, on évalue un test par sa performance dans une population donnée, qui est fonction de:

  • sa Valeur prédictive positive

VPP = VP / (VP+ FP) = VP / ensemble des positifs

 

  • sa Valeur Prédictive Négative:

VPN = VN / (VN+FN) = VN / ensemble des négatifs.

VPN et VPP sont donc intimement liées aux caractéristiques du test (Sensibilité et spécificité) mais aussi à la prévalence de la maladie dans la population, c'est à dire, en gros, le pourcentage de malades dans cette population. VPN et VPP varient en sens inverse. Pour une prévalence faible, la VPP est faible et la VPN est haute; autrement dit, la majorité des positifs seront des faux positifs. A l'inverse pour une prévalence haute, la VPP devient élevée et la VPN faible, même si le test n'est pas très spécifique: il y aura peu de faux positifs.

 

Démonstration:

Un médecin généraliste emploi un test avec une sensibilité de 98% et une spécificité de 95%. La prévalence de la maladie dans la population qui vient le consulter est de 1% (valeur élevée par rapport au quotidien du généraliste). Construisons à rebours le tableau correspondant en prenant 10000 sujets, on aura donc:

  • 100 vrais malades donc 9900 pas malades
  • On déduit de la formule de la sensibilité les vrais positifs: 

VP = Se * vrais malades = 0,98 * 100 = 98 donc il y a 100- 98 = 2 faux négatifs

  • on déduit de la formule de la spécificité les vrais négatifs:

VN = Sp * non malades = 0,95 * 9900 = 9405 donc il y a 9900- 9405 = 495 faux positifs

Au passage, on note donc que 497 tests sur 10.000 donnent de faux résultats soit presque 5 % d'erreur...

tab generaliste.jpeg

Maintenant, ce même généraliste envoi tous ses patients positifs chez un spécialiste qui utilise en fait le même test. La sensibilité et la spécificité du test n'ont donc pas changé. Par contre la prévalence a beaucoup évolué: on a maintenant 98 vrai malades parmi les 593 qui étaient positifs soit une prévalence d'environ 16,53 %. Construisons maintenant le tableau correspondant pour ces patients référés chez le spécialiste, on obtient, en arrondissant:

  • 98 vrais malades et 495 pas malades
  • On déduit de la formule de la sensibilité les vrais positifs:

VP = Se * vrais malades = 0,98 * 98 = 96 donc il y a 98- 96 = 2 faux négatifs

  • on déduit de la formule de la spécificité les vrais négatifs:

VN = Sp * non malades = 0,95 * 495 = 470 donc il y a 495- 470 = 25 faux positifs

Là encore, on a pas mal de faux résultats: 27 sur 593, soit 4,5 %

tab spécialiste.jpeg

Calculons maintenant les VPP et VPN chez le généraliste:

VPP = 98 / 593 = 0,165

VPN = 9405 / 9407 = 0,999

 

et chez le spécialiste:

VPP = 96 / 121 = 0,793

VPN = 470 / 472 = 0,995

 

VPN et VPP du même test ont donc évolué: ses performances ne sont donc plus du tout les mêmes.En l'occurence on a seulement 16,5% de risque d'avoir réelement la maladie si on est testé positif chez le généraliste contre 79,3% chez le spécialiste qui utilise le même test. Par contre on a 99,9% de chance de ne pas avoir la maladie si on est testé chez le généraliste contre "seulement" 99,5% chez le spécialiste.

 

Qu'est ce que cela implique concrètement ?

Tout d'abord que le choix d'un test et son utilisation sont à pondérer en fonction des risques que l'on accepte de prendre – ou pas.

Ensuite que l'interprétation d'un test doit se faire avec beaucoup de précautions, ce qu'ignore la majorité des patients et malheureusement beaucoup de prescripteurs. La prévalence évolue, on l'a vu, en fonction de la population: elle n'est pas la même selon le type de médecin, son lieu d'exercice et sa population cible (mineurs wallons ou alpinistes Suisses, nouveaux-nés ou personnes agées...) mais aussi du contexte du test. Pour revenir au VIH, la prévalence est beaucoup plus faible chez les donneurs de sang (qui par définition se considèrent hors-risque) que dans les lieux de dépistage volontaire (où les personnes se considèrent à risque). Ainsi imposer des tests obligatoires (par exemple la proposition de certains politiciens américains de tester obligatoirement pour le VIH toutes les femmes enceintes) est un total non-sens en termes de santé publique: outre les dégâts économiques d'une telle mesure, il est éthiquement difficile de justifier tous les faux positifs qui en découlerait (mais la visibilité politique d'une telle annonce n'a rien à voir avec la santé publique: elle est axée sur l'émotionnel des électeurs).

Enfin, l'exemple généraliste/spécialiste n'est pas choisi par hasard: il reflète l'importance de suivre le parcours d'entrée dans le système de santé. Si tout le monde passait chez le généraliste avant de consulter un spécialiste, ce premier maillon (le généraliste) pourrait réelement opérer son rôle de filtre en éliminant un maximum de vrais négatifs (au contraire du spécialiste qui a plus tendance, en raison de la prévalence différente dans son cabinet, a trouver des positifs).

 

L'incertitude médicale, dont nous avons seulement entrevu l'importance à l'aide de ce petit exemple, est quelque chose de difficile à accepter. D'une part parce qu'on a tous envie d'une médecine idéale et infaillible qui repousserait toujours plus loin les limites de la mort et du vieillissement; et d'autre part parce que la paradigme Pasteurien a fortement influencé nos convictions en la matière. Les déceptions sont à la hauteur des espoirs qui ont été mis. Pourtant, sans vouloir contester la responsabilité des professionnels, les procès fait aux médecins pour « erreur diagnostic » sont fondamentalement dangereux: c'est nier l'erreur statistique inhérente à cet art que d'attendre un résultat sûr à 100%. Cela n'existe pas, ni pour un test aussi rigoureux soit-il, ni, et même encore moins, pour un examen d'imagerie (type échographie: je pense par exemple au fameux arrêt « perruche »). On peut réduire fortement la marge d'erreur par des pratiques « saines » (choix et lecture du test, double diagnostic, art clinique, Evidence Based Medicine...) mais jamais la ramener à 0.Ainsi soit-il.

 

 

Source:  J'ai pas d'autres sources que mes cours et mes connaissances sur le sujet. C'est dire en fait une multitude de sources que j'ai la flemme de rechercher.
Mais si tu tiens absolument avoir une référ
ence, je viens de trouver ça sur google:

Sensibilité, spécificité, valeur prédictive positive et valeur prédictive négative d'un test diagnostique

D'autres documents sont facilement accessibles, enjoy it...

 

 

 

Commentaire personnel:


Cet article m'a été
inspiré par un document sur le SIDA. Un reportage qui se veut sensationnel mais qui en fait ne révèle rien que la communauté scientifique ne connaisse déjà. Il a par contre l'avantage, outre de reprendre les grands enjeux de santé publique, d'interviewer Montagnier. Cette interview, incomplète ici, a signé le "suicide médiatique" du prix Nobel qui développe et insiste sur les co-facteurs de la maladie. Il a étéfort critiqué l'époque car on craignait, et on craint toujours, une lecture simpliste de la part du public (genre: le SIDA est lié à la pauvreté, donc on n'a plus besoin de mettre des préservatifs). ça m'éloigne du sujet central, mais voici le documentaire en question:

SIDA: quand la vérité explose

Il mér
iterait surement un article à part entièe mais bon, juste là maintenant, j'ai la flemme.

 

10:36 Écrit par skoliad | Lien permanent | Commentaires (0) | Tags : recherche, épidémiologie |  Facebook |

Les commentaires sont fermés.