Vous pouvez apprendre à mieux utiliser les données probantes avec les tutoriels PEDro:
- Comment poser une question clinique
- Est-ce que cet essai clinique est valide?
- Est-ce que le traitement est cliniquement utile?
1. Comment poser une question clinique
Avant de commencer à consulter les données de la recherche clinique, il est préférable de prendre du temps pour réfléchir à la question à laquelle vous souhaitez répondre. Ainsi, formuler et préciser votre question vous aidera à trouver des réponses en consultant les résultats issus de la recherche. Ce tutoriel vidéo explique comment poser des questions cliniques au format PICO (Patient-Intervention-Comparaison-Outcome ou critère d’évaluation).
2. Est-ce que cet essai clinique est valide?
Le laser à basse énergie est-il un traitement efficace pour l’épicondylite? Est-ce que les programmes d’étirements empêchent le développement des contractures après une attaque cérébrale? Est-ce que l’utilisation des “flutter” peut réduire les complications respiratoires postopératoires? Des réponses rigoureuses à ces questions peuvent être fournies par des essais cliniques correctement conçus et correctement mis en œuvre. Malheureusement la littérature contient à la fois des essais bien menés qui donnent des conclusions valides et des essais mal conduits qui tirent des conclusions incorrectes; le lecteur doit pouvoir distinguer les deux. Ce cours pratique décrit les points clés (ou “filtres méthodologiques”) que doit contenir un essai clinique pour être jugé comme valide.
Certaines études qui prétendent déterminer l’efficacité des traitements de physiothérapie regroupent simplement quelques sujets avec un état particulier et effectuent des mesures avant et après le traitement. Si les sujets s’améliorent au cours de la période de traitement, il est déclaré que le traitement est efficace. Les études qui utilisent ces méthodes fournissent rarement les preuves satisfaisantes de l’efficacité du traitement parce qu’il est rarement certain que les améliorations observées soient dues au traitement et non pas à des variables externes telles que l’évolution normale de la maladie, la régression statistique (qui est un phénomène statistique par lequel les gens deviennent moins “extrêmes” avec le temps simplement en raison de la variabilité de leur état), l’effet placebo, ou l’effet de “Hawthorne” (où les sujets rapportent des améliorations parce qu’ils pensent que c’est ce que l’investigateur veut entendre). La seule voie satisfaisante pour éviter ces pièges (remettant en cause la validité d’une étude) est d’avoir un groupe contrôle. La comparaison s’effectue alors entre les résultats des sujets qui ont reçu le traitement et les sujets qui n’ont pas reçu le traitement.
La logique des études contrôlées est que, en moyenne, les variables extérieures devraient agir autant sur les groupes traités que sur les groupes contrôles (témoins), de sorte toute différence entre les groupes à la fin de l’expérience devrait être due au traitement. A titre d’exemple, nous savons tous que la plupart des cas de lombalgie aiguë s’améliorent spontanément et rapidement, même en l’absence de traitement; ainsi, montrer que les sujets s’améliorent dans le temps avec un traitement ne peut pas constituer la preuve de l’efficacité du traitement. Une étude contrôlée prouvant que les sujets traités vont mieux que les sujets témoins constituerait une preuve plus forte attestant que l’amélioration est liée au traitement, parce que l’évolution normale de la maladie devrait s’être produite à la fois dans les groupes traités et témoins. L’observation qui montre que le groupe traité va mieux que le groupe témoin suggère que quelque chose de plus que l’évolution naturelle de la maladie s’est produit pour que les sujets aillent mieux. Notez que, dans une étude contrôlée, le groupe contrôle n’a pas besoin de ne pas recevoir de traitement. Souvent, dans des essais contrôlés, la comparaison s’effectue entre un groupe contrôle qui reçoit le traitement habituel et un groupe expérimental qui reçoit le traitement habituel plus le traitement étudié. Parfois, certains essais thérapeutiques comparent un groupe contrôle qui reçoit le traitement habituel avec un groupe expérimental qui reçoit une nouvelle thérapie.
Il faut savoir que les groupes contrôles assurent uniquement la protection contre les biais liés à des variables externes pour autant que les groupes traités et contrôles soient semblables. C’est seulement lorsque les groupes traités et contrôles sont en tous points semblables (mis à part le fait d’être ou non traité) que les résultats peuvent être sûrs, et que les différences entre les groupes à la fin de l’étude sont dues au traitement. Dans la pratique, ceci est réalisé en répartissant de manière aléatoire la population disponible dans le groupe traité ou le groupe contrôle. Ceci assure que les facteurs extérieurs tels que l’évolution naturelle de la maladie ont un effet à peu près identique dans les groupes traités et contrôles. En effet, quand les sujets sont répartis de manière aléatoire dans les groupes, les différences entre le traitement et le groupe contrôle peuvent seulement être dues au traitement ou à la chance, et il est possible d’éliminer la chance si les différences sont suffisamment grandes – c’est ce que font les statistiques. Notez que c’est la seule voie pour assurer que les groupes traités et contrôles sont comparables. Il n’y a aucune alternative véritablement satisfaisante à la répartition aléatoire.
Même lorsque des sujets sont aléatoirement répartis dans les groupes, il est nécessaire de s’assurer que l’effet (ou le manque d’effet) du traitement n’est pas déformé par un “biais d’observateur”. Ceci est lié au fait que la croyance de l’investigateur dans l’efficacité d’un traitement peut inconsciemment dévier la mesure des résultats thérapeutiques. La meilleure protection est assurée en “aveuglant l’observateur” et ainsi en s’assurant que l’examinateur qui mesure les résultats ne sait pas si le sujet recevait ou ne recevait pas le traitement. Il est généralement souhaitable que le patient et le thérapeute soient également “en aveugle”. Quand des patients sont en aveugle, vous savez que l’effet apparent de la thérapie n’a pas été produit par l’effet placebo ou l’effet de Hawthorne. Rendre aveugle les thérapeutes vis-à-vis de la thérapie qu’ils appliquent est souvent difficile voire impossible, mais dans les études où les thérapeutes sont en aveugle vis-à-vis de la thérapie (comme, par exemple, dans les essais sur le laser à basse énergie où le dispositif peut produire le laser ou une lumière colorée, et que le thérapeute ne sait pas ce qu’il applique), vous pouvez être sûr que les effets du traitement n’ont pas été produits par l’enthousiasme des thérapeutes pour le traitement, mais plutôt par la thérapie elle-même.
Il est également important que peu de sujets abandonnent pendant l’essai (les “perdus de vue” ou “drop-out”). Car les abandons peuvent sérieusement déformer les résultats de l’étude. Un véritable effet thérapeutique pourrait être masqué si les sujets du groupe témoin dont la situation empire au cours de la période de l’étude abandonnent l’étude pour rechercher un autre traitement. En effet, ceci amènerait le groupe contrôle à avoir des résultats meilleurs qu’ils ne le sont réellement. Inversement, si le traitement faisait empirer l’état de santé de quelques sujets et que ces sujets quittaient l’étude, le traitement apparaîtrait plus bénéfique qu’il ne l’est réellement. Pour cette raison, les abandons représentent toujours une incertitude dans la validité d’un essai clinique. Naturellement, plus il y a d’abandons, plus l’incertitude est grande – un principe de base approximatif établi que, si plus de 15 % des sujets abandonnent une étude, l’étude est potentiellement sérieusement biaisée. Quelques auteurs ne répertorient tout simplement pas le nombre d’abandons. En accord avec le principe scientifique établi qui déclare coupable tant que l’innocence n’est pas prouvée, ces études doivent être considérées comme potentiellement biaisées.
Pour résumer, les essais cliniques valides sont:
- randomisés avec répartition aléatoire des sujets dans le groupe traité et le groupe contrôle
- avec un examinateur en aveugle, et si possible les patients et les thérapeutes également en aveugle
- avec peu de “perdus de vue”.
La prochaine fois que vous lirez un essai clinique d’un traitement de physiothérapie, demandez-vous si l’essai répond à ces critères. En règle générale, les essais qui ne satisfont pas ces critères peuvent être incorrects et ne devraient pas être retenus pour constituer des preuves fortes de l’efficacité (ou de l’inefficacité) d’un traitement. Les essais qui remplissent ces critères devraient être lus soigneusement et leurs résultats devraient être gravés dans votre mémoire!
Si vous voulez lire d’autres documents sur les moyens d’évaluer la validité d’un essai, essayer:
Guyatt GH, Sackett DL, Cook DJ, et al. Users’ guide to the medical literature: II. How to use an article about therapy or prevention: A. Are the results of this study valid? JAMA 1993;270:2598-601.
3. Est-ce que le traitement est cliniquement utile?
La section précédente a présenté une liste de critères que les lecteurs peuvent utiliser pour différencier les études qui sont susceptibles d’être valides de celles qui peuvent ne pas l’être. Les études qui ne remplissent pas la plupart des filtres méthodologiques sont habituellement ignorées. Cette section aborde comment les thérapeutes devraient interpréter les essais qui remplissent la plupart des filtres méthodologiques. La notion clé est qu’il n’est pas suffisant de regarder simplement un effet statistiquement significatif du traitement pour donner la preuve de son efficacité. Pour être satisfaisant, il faut que l’essai mesure des résultats ayant du sens, et que les effets positifs du traitement soient assez grands pour que le traitement en vaille la peine. Les effets nocifs de la thérapie doivent être peu fréquents ou inexistants de sorte que le traitement fasse plus de bien que de mal. Pour finir, le traitement doit présenter un bon équilibre entre son coût et son efficacité.
Évidemment, pour que l’essai soit utile il doit présenter des effets thérapeutiques ayant du sens. Ceci signifie que les résultats doivent être mesurés d’une manière valide. C’est parce que nous jugeons habituellement la valeur première d’un traitement en fonction de sa réponse aux besoins des patients, que les résultats mesurés doivent avoir du sens pour les patients. Ainsi, un essai qui prouve que le laser à basse énergie abaisse le niveau de sérotonine est beaucoup moins utile qu’un essai qui prouve qu’il réduit la douleur, et un essai qui prouve que la rééducation active réduit la spasticité est beaucoup moins utile qu’un essai montrant l’amélioration de l’indépendance fonctionnelle.
La taille de l’effet ou l’importance de l’effet thérapeutique est évidemment importante, mais souvent négligée. Peut-être est-ce parce que beaucoup de lecteurs d’essais cliniques ne comprennent pas la distinction entre “la signification statistique” et “la signification clinique”. Ou peut-être cela reflète la préoccupation de beaucoup d’auteurs des essais cliniques le “p” est-il ou non < 0,05. La signification statistique (“p < 0,05”) se rapporte à un effet thérapeutique plus grand que celui que l’on pourrait raisonnablement attribuer à la chance. C’est important (nous devons trouver que les effets observés du traitement ne sont pas seulement dû à la chance) mais à elle seule, cette information ne nous dit rien sur l’importance de l’effet. La meilleure évaluation de la taille de l’effet d’un traitement est la différence moyenne entre les groupes. Ainsi, imaginons un essai sur les effets de la mobilisation sur les douleurs d’épaule, mesurés par une échelle visuelle analogique de 10 centimètres. La diminution de la douleur a été en moyenne de 4 centimètres dans le groupe traité et de 1 centimètre dans le groupe contrôle. La meilleure évaluation de l’effet moyen du traitement est une réduction de 3 centimètres de l’EVA (car 4 centimètres moins 1 centimètre font 3 centimètres). Imaginons un autre essai sur les étirements des muscles avant le sport qui pourrait rapporter que 2% des patients dans le groupe traité ont été ultérieurement blessés, comparé à 4% dans le groupe contrôle. Dans ce cas, notre preuve la meilleure est que l’étirement a réduit le risque de lésions de 2% (car 4% moins 2% font 2%). Les lecteurs des essais cliniques doivent regarder la taille de l’effet rapportée pour décider si l’effet est assez grand pour être cliniquement utile. Rappelez-vous que les patients viennent souvent chercher un traitement pour être guéri (naturellement cette généralisation peut ne pas correspondre à tous nos domaines de pratique clinique) – la plupart ne sont pas intéressés par des traitements qui n’ont que des effets légers.
Il y a une importante subtilité en regardant la taille des effets thérapeutique. Elle s’applique aux études dont les résultats sont mesurés avec des données dichotomiques (les résultats dichotomiques peuvent prendre deux valeurs, telle que décédé ou vivant, blessé ou non blessé, admis à la maison de retraite ou non admis; ceci diffère des variables telles que les mesures de l’EVA pour la douleur, qui peuvent prendre n’importe quelle valeur comprise entre 0 et 10). Beaucoup d’études qui mesurent des résultats dichotomiques indiqueront l’effet de la thérapie en termes de taux, plutôt qu’en terme de différences. (Le taux peut être présenté sous forme de “risque relatif”, de rapport de cotes (odds ratio) ou de risque instantané (hazard ratio), ou parfois sous d’autres formes). Exprimés de cette façon, les résultats de notre étude hypothétique sur les étirements seraient présentés comme une réduction de 50% du risque de lésions (car 2% est la moitié de 4%). Habituellement le fait d’exprimer des effets de traitement à travers un taux est utilisé pour amplifier l’effet de la thérapie. La meilleure mesure est la différence entre les deux groupes. (En fait, la mesure la plus utile peut aussi bien être l’inverse de la différence. Ceci s’appelle parfois le “nombre nécessaire pour traiter (NNT)” parce qu’il nous indique, en moyenne, combien de patients nous devons traiter pour empêcher un événement indésirable de se produire – dans l’exemple des étirements, le nombre de patient nécessaire au traitement est 1/0.02 = 50, ainsi une blessure sera évitée chez un patient pour 50 sujets qui s’étirent).
Beaucoup d’essais n’indiquent pas les effets nocifs des traitements (c’est-à-dire “les effets secondaires indésirables” ou “les complications” de la thérapie). C’est fort dommage, parce que l’absence de description des effets nocifs est souvent interprétée comme indiquant que la thérapie ne fait aucun mal, ce qui n’est clairement pas certain. Glaziou et Irwig (BMJ 1995;311:1356-9) ont débattu sur le fait que les effets du traitement sont habituellement les plus prononcés lorsqu’ils sont donnés aux patients dans des conditions les plus graves (par exemple, l’aspiration bronchique pourrait produire une plus grande réduction de risque d’arrêt respiratoire pour un patient traumatisé crânien présentant un encombrement massif que pour un autre patient traumatisé crânien présentant un plus faible encombrement). En revanche, les risques du traitement (dans ce cas-ci, l’augmentation de la pression intra-crânienne) tendent à être relativement constants, indépendamment de la sévérité de l’état du patient. Ainsi une thérapie fait plus de bien que de mal quand elle est appliquée aux patients dans des situations graves. Les thérapeutes devraient donc être moins enclins à donner une thérapie qui a des effets secondaires potentiellement sérieux quand le patient est moins gravement atteint.
Dans la pratique, il est souvent difficile pour les essais cliniques de détecter des effets néfastes, car ces effets tendent à se produire rarement, et la plupart des essais cliniques ont des tailles d’échantillon insuffisantes pour détecter des effets néfastes quand ils se produisent. Ainsi, même après que de bons essais contrôlés randomisées d’une thérapie ont été exécutés, les études à grande échelle qui suivent de grandes cohortes de patients traités ont un rôle important pour démontrer que les effets néfastes ne se produisent pas trop fréquemment. Jusqu’à ce que de telles études soient réalisées, les thérapeutes devraient être méfiants pour appliquer une thérapie potentiellement nocive, en particulier pour des patients qui ont un gain relativement faible à attendre de la thérapie.
Pour affiner encore l’évaluation critique il est nécessaire de prendre en considération le degré d’imprécision de la taille de l’effet offert par les essais cliniques. Des essais sont exécutés sur des groupes de sujets dont on attend qu’ils représentent certaines populations. Ceci signifie que ce que peut fournir de mieux un essai est seulement une estimation (imparfaitement précise) de l’ampleur des effets du traitement. Les essais cliniques sur un grand nombre de sujets fournissent de meilleures estimations (plus précises) de l’importance des effets du traitement que des essais sur un petit nombre de sujets. Dans le meilleur des cas, les lecteurs devraient considérer le degré d’imprécision de l’estimation en se demandant ce que l’essai clinique signifie, parce que ceci affectera souvent le degré de certitude qui peut être attaché aux conclusions tirées d’une étude particulière. Le meilleur moyen pour effectuer ceci est de calculer des intervalles de confiance de l’estimation de la taille de l’effet du traitement, si ceux-ci ne sont pas explicitement fournis dans l’étude publiée. Un cours pratique sur la façon de calculer et d’interpréter un intervalle de confiance des principales mesures de taille de l’effet est donné dans:
- Herbert RD. How to estimate treatment effects from reports of clinical trials. I: Continuous outcomes. Aust J Physiother 2000;46:229-35.
- Herbert RD. How to estimate treatment effects from reports of clinical trials. II: Dichotomous outcomes. Aust J Physiother 2000;46:309-13.
Les lecteurs qui sont familiarisés avec le calcul des intervalles de confiance peuvent trouver utile de télécharger la feuille de calcul de l’intervalle de confiance de PEDro. Cette feuille de calcul est réalisée sous Excel.
La dernière chose à faire pour décider de l’utilité d’une thérapie est de décider si la thérapie est coût-efficace. C’est particulièrement important quand les soins sont payés ou subventionnés, par des financements publics. Il n’y aura jamais assez de ressources pour financer toutes les innovations dans la santé (probablement mêmes pas toutes les bonnes innovations). Ainsi, le coût de chaque thérapie implique que l’argent dépensé pour elle ne pourra pas être dépensé pour d’autres formes de soins. L’allocation raisonnée des fonds implique que l’argent dépensé va là où l’effet par unité monétaire (ex. par dollar) est le plus grand. Naturellement une thérapie ne peut pas être coût-efficace si elle n’est pas efficace. Mais les thérapies efficaces peuvent avoir un coût élevé pour une faible efficacité. Les méthodes employées pour déterminer la rentabilité sont en dehors de l’expertise de l’auteur, et il est probablement mieux de se reporter à des sources plus détaillées. Si vous êtes intéressé(e), vous pouvez lire:
- Drummond MF, Richardson WS, O’Brien BJ, Levine M, Heyland D. Users’ guide to the medical literature: XIII. How to use an article on economic analysis of clinical practice: A. Are the results of the study valid? JAMA 1997;277:1552-7.
- O’Brien BJ, Heyland D, Richardson WS, Levine M, Drummond MF. User’s guide to the medical literature: XIII. How to use an article on economic analysis of clinical practice: B. What are the results and will they help me in caring for my patients? JAMA 1997;277:1802-6.
Pour récapituler cette section:
Signification statistique ne signifie pas utilité clinique. Pour être médicalement utile, une thérapie doit:
- cibler des résultats qui intéressent les patients
- avoir des effets suffisamment grands pour en valoir la peine
- faire plus de bien que de mal
- être coût-efficace.
Si vous voulez en savoir plus sur l’évaluation de la taille de l’effet, vous pouvez consulter:
Guyatt GH, Sackett DL, Cook DJ, et al. Users’ guide to the medical literature: II. How to use an article about therapy or prevention: B. What were the results and will they help me in caring for my patients? JAMA 1994;271:59-63.