J’aimerais aujourd’hui vous parler d’une étude scientifique publiée fin novembre 2011 dans le BMJ (British Medical Journal) par une équipe de chercheurs français conduite par le Dr Arnaud Seigneurin[1]. Cette étude m’a interpellée car elle est, à ma connaissance, celle qui donne des estimations du taux de surdiagnostic les plus bas qui soient, à savoir 1,5 % dans les cas de cancers invasifs. Les taux officiels eux-mêmes parlant de 5 à 10 %, un tel résultat valait que l’on s’y arrête.
J’ai d’ailleurs bien failli ne pas aller plus loin. Le titre déjà :
« Overdiagnosis from non-progressive cancer detected by screening mammography : stochastic simulation study with calibration to population based registry data. »
Sans vouloir fanfaronner, pour l’écriture de “No mammo?”, j’ai compulsé un certain nombre d’études scientifiques (bien obligée en tant que non-médecin). Par définition, ce type de documents est conçu pour être lu par des pairs et on ne peut logiquement leur demander d’être aussi digestes qu’un roman de gare, mais là, je cale d’entrée : qu’est-ce donc qu’une simulation stochastique ? En tant qu’adjectif, le Petit Robert me donne deux définitions :
1/ qui est le fruit du hasard, au moins en partie (avec comme synonyme « aléatoire »)
2/ qui comporte la présence d’une variable aléatoire.
En conséquence, la traduction du titre donnerait (avec les plus grandes réserves) quelque chose comme :
« Surdiagnostic des cancers non progressifs détectés par la mammographie de dépistage : simulation comportant la présence d’une variable aléatoire après étalonnage par rapport au registre de données recueillies sur la population. »
Voilà le premier écueil franchi : avançons… pas très loin : nous sommes de nouveau arrêtés dès l’abstract, où nous apprenons que l’étude a été conçue par
« approximate bayesian computation analysis with a stochastic simulation model designed to replicate standardised incidence rates of breast cancer. »
My God ! Ne me demandez pas ce qu’est exactement une « bayesian computation analysis » : à part le fait que « bayesian » a un rapport avec les probabilités, je ne saurais vous répondre. On aurait donc : une analyse de calculs de probabilités, le tout approximatif ? Là, je mets genoux à terre et rends les armes. Prématurément vaincue par le calcul bayésien et terrassée par la simulation stochastique, je passe directement au dessert (la conclusion) parce que je ne peux plus rien avaler d’autre.
C’est là que nous apprenons que les chercheurs, à force de simulation stochastique, ont
trouvé 1,5 % de surdiagnostic en cas de cancer du sein invasif détecté par la mammographie. Pour l’estimation du surdiagnostic des carcinomes in situ, nous
serons priés de repasser puisque les auteurs s’excusent :
« d’autres études seront nécessaires pour obtenir une estimation plus précise du surdiagnostic des carcinomes in situ. »
C’est bien dommage, car c’est justement ce type de « petit cancer » qui est responsable de la majorité des cas de surdiagnostic. Tenter d’estimer le surdiagnostic du à la mammographie de dépistage sans inclure le carcinome in situ : j’avoue ne
pas comprendre.
D’autre part, pourquoi avoir recours à des « simulations stochastiques »
alors que les études épidémiologiques existent, qui comptent non des artéfacts
virtuels mais de vraies femmes, en chair et en os, avec de vrais seins coupés
pour rien ?
Pour m’enlever un doute horrible quant à mes facultés d’analyse, je surfe dans la
rubrique « Rapid responses » du BMJ, pour voir si les autres, eux,
avaient compris quelque chose. A la date du 28 novembre, je constate avec
plaisir qu’un groupe de médecins du Formindep, accompagné de Per Henrik Zahl,
épidémiologiste à l’Ecole de santé publique d’Oslo, tente d’apporter quelques
éclaircissements. Et à la date du 1er décembre, les deux compères de
l’institut Cochrane nordique à Copenhague, j’ai nommé Peter Gotzsche – Gotzschy
– et Karsten Jorgenssen, me rassurent définitivement[2]. Avec leur aimable autorisation, voici leur réponse en intégralité en traduction libre :
« Si la carte ne correspond pas au terrain, mieux vaut se fier au terrain »
«Dans un grand nombre d’articles traitant du surdiagnostic dû à la mammographie de dépistage, les auteurs ont fait en sorte de dissimuler l’ampleur du phénomène du surdiagnostic, que tout en chacun peut constater à l’œil nu, en usant de modèles statistiques complexes et de présomptions douteuses.
L’étude de Seigneurin constitue un formidable exemple de cette étrange manie dont le but semble n’être autre que de s’approcher le plus possible d’une estimation zéro surdiagnostic, tout en réussissant dans le même temps à publier l’article. Pour ce faire, les chercheurs ont recours aux méthodes les plus sophistiquées et les plus surprenantes, mais pas dans un sens positif, que nous ayons jamais vu.
En premier lieu, ils font en sorte que nous ne puissions comprendre ce qui a été fait. La présentation des méthodes utilisées et si compliquée qu’à notre avis moins de un lecteur sur 100 aura l’endurance nécessaire à sa lecture complète, et moins de un sur 1000 sera capable de comprendre lesdites méthodes. Lors de notre propre tentative, notre première
réaction fut : « Où est le graphique qui nous permettrait de vérifier si les résultats du modèle sont plausibles ? Aucune trace de ce type de graphique ; le seul que nous trouvons ne répond pas à notre question, et l’échelle utilisée dans l’axe des ordonnées tasse les courbes dans un espace si réduit qu’il est impossible de se faire une idée de ce qui se passe.
Il aurait été intéressant de savoir comment évoluait l’incidence sur plusieurs années avant que le dépistage ne se généralise d’une façon ou d’une autre, cependant, la première année sur le graphique et dans la modélisation est celle où le dépistage a commencé ; et nous ne trouvons pas non plus de graphiques pour les groupes d’âge non dépistés qui auraient pu servir de groupes de contrôle pour estimer l’importance d’un éventuel impact sur l’incidence globale.
En second lieu, nous nous demandons comment les auteurs ont-ils pu estimer les tendances évolutives sans avoir recours aux données pré-dépistage. Le nombre de présomptions dans cet article est sans égal comme l’illustre un simple comptage de mots : modèle : 56 ; simuler : 44 ; approximatif : 17, et assumer : 13.
Dans la discussion, le voile tombe. Les auteurs avouent : « Il est vrai qu’il est souvent nécessaire d’avoir recours à des modèles complexes pour appréhender le processus de maladies réelles, rendant problématique l’évaluation de leur validité. » En effet. Et ils
ajoutent : « De plus, certains des 12 paramètres que nous avons estimé dans notre modélisation présentent probablement des corrélations non-négligeables entre eux. » C’est incroyable. Ils ont estimé 12 paramètres et n’ont pu exclure les corrélations entre eux. Les auteurs font remarquer que « l’incertitude et la complexité sont les principales limites de cette approche par modélisation. » Nous approuvons de tout cœur, mais pourquoi alors publier l’article ?
Troisième point : il n’existe pas de données fiables concernant le taux de dépistage opportuniste avant que le dépistage organisé ne soit mis en place (si tant est que cela ait encore quelque importance, les taux de participation sont très bas). Nous ne pouvons même pas conclure quoique ce soit concernant la première année affichée sur le graphique du fait que les diagnostics de carcinome in situ − résultats tout à fait plausibles du dépistage opportuniste − n’étaient pas apparents pour 100 000 femmes. L’axe des coordonnées représentait « les taux d’incidence mondiaux standardisés ». Nous ne savons pas exactement ce que cela peut bien signifier mais il n’est peut-être guère représentatif pour la France dont la population possède une des espérances de vie les plus élevées.
Quatrième point : ils n’ont pas étudié le surdiagnostic puisqu’ils disent : « Nous nous sommes limités aux maladies non-progressives ; le surdiagnostic résultant de cancers progressifs ne fut pas pris en compte du fait de l’existence de causes de décès
concurrentielles qui ne rentraient pas dans le cadre de cette étude. » Ces cancers exclus constituent pourtant une part non négligeable du groupe des cancers entrant dans le cadre du surdiagnostic ! Cette définition semble également exclure d’autres composants majeurs de ce groupe : les cancers qui régressent spontanément, cependant, cette exclusion est difficilement visible dans le texte.
Cinquième point : ce que disent les auteurs concernant les autres études est en grande partie erroné et minimise de façon systématique le phénomène du surdiagnostic. Par exemple, ils affirment que le taux de surdiagnostic était de 6,5 % dans l’essai de Malmö, alors qu’il fut de 32 % après 9 années dans la phase d’essai[3], et de 25 % après un suivi additionnel de 15 ans, après correction des biais de dilution et de contamination[4]. Ils affirment d’autre part qu’il fut de 1,7 % dans l’un des essais canadiens, alors qu’il fut en fait de 26 %[5]. Ils ont également mal interprété, ou déformé, notre revue systématique des programmes nationaux de dépistage en affirmant que notre estimation du surdiagnostic ne tenait pas compte du délai prévisible. Elle le faisait, non pas en usant de
présomptions non fiables sur son ampleur comme de nombreuses chercheurs l’ont
fait, mais en soustrayant le déclin éventuel des cancers chez les femmes âgées entrant
auparavant dans la tranche d’âge ciblée par le dépistage[6]. De plus, nous avons utilisé des chiffres réels et non des chiffres inventés, et avons trouvé un surdiagnostic de 52 %.
De façon regrettable, les recherches dans le domaine de la psychologie ont montré que les gens ont tendance à croire ce qu’ils ne peuvent comprendre. Ce travers a toutes les chances d’être aggravé si ce que l’on nous dit correspond à ce que nous avons envie d’entendre.»
Merci à Peter Gotzsche et Karsten Jorgenssen. En conclusion, sachons garder les pieds sur terre : les opportunités de mesurer le surdiagnostic ne manquent pas dans le monde réel, point n’est besoin de « simulations stochastiques ».
[1] A. Seigneurin et
al, « Overdiagnosis from non-progressive cancer detected by screening
mammography : stochastic simulation study with calibration to population
based registry data.”, BMJ 2011; 343:d7017.
[2] http://www.bmj.com/content/343/bmj.d7017?tab=responses
3] Gøtzsche PC, Nielsen M. Screening for breast cancer with mammography. Cochrane
Database Syst Rev 2009;(4):CD001877.
[4] Gøtzsche PC, Jørgensen KJ. Estimate of harm/benefi t ratio of mammography screening was fi ve times too optimistic. BMJ 2006 Mar 27. Available at: http://bmj.bmjjournals.com/cgi/eletters/332/7543/691 (accessed 5 May 2010).
[5] Screening for breast cancer with mammography
[6] Jørgensen KJ, Gøtzsche PC. Overdiagnosis in publicly organised mammography screening programmes: systematic review of incidence trends. BMJ 2009;339:b2587.
Dans un monde virtuel les données montrant un rapport bénéfice/risque en faveur du dépistage par mammographie du cancer du sein existent peut-être. Dans le monde réel je les ai cherchées mais je ne les ai pas trouvées: http://www.voixmedicales.fr/2011/10/11/un-medecin-coordinateur-du-depistage-par-mammographie-qui-me-veut-du-bien-mais-qui-minforme-mal/
Merci pour cet article et pour ce blog.