Acceptabilité des « nouvelles méthodologies » pour l’évaluation des médicaments

1 Objectifs, démarche mise en œuvre

2 Fondamentaux et principes de base considérés

3 Définition et classification des nouvelles « méthodologies »

4 L’acceptabilité des méthodologies « moins-disantes »

5 Retour des premières utilisations de nouvelles méthodologies

6 Évaluation des revendications de bénéfice clinique d’un nouveau traitement

7 Les real world evidences (RWE )

8 Les études observationnelles

8.1 Problématiques méthodologiques spécifiques et solutions possibles

8.1.1 Confusion

8.1.2 Autres biais

8.1.3 Autres éléments de méthode

8.1.3.1 Étude exploratoire , étude de confirmation, découverte fortuite

8.1.3.2 Études multibases

8.1.3.3 P hacking

8.1.3.4 Biais de publication et selective reporting

8.1.4 Analyse en intention de traiter

8.1.5 Inférence causale (causal inference)

8.2 Synthèses des problématiques et de leurs solutions

8.3 Études de cas, retour sur expérience

8.3.1 Comparaison de la chlorthalidone et de l’hydrochlorothiazide pour le traitement de l’hypertension

8.3.2 Sécurité cardiovasculaire de l’insuline

8.4 Meta-recherche

8.5 Avis de la SFPT

9 L’approche d’émulation d’un essai cible

10 Les registres

11 Les essais pragmatiques

12 Les essais plateformes

13 Les essais bayésiens

14 Les essais adaptatifs

15 Les essais combinés (« sans couture », seamless )

16 Études mono-bras (non comparative)

17 Études à contrôle externe (groupes contrôles synthétiques )

18 L’emprunt d’information

19 Les surrogates (critères de substitution)

20 Les essais basket

21 Les analyses poolées , les méta-analyses

22 Les comparaisons indirectes en remplacement d’études « head to head » manquantes

23 Les maladies rares

Références

PDF

8.3 Études de cas, retour sur expérience

     

Il existe de très nombreux exemples où des bénéfices de traitement suggérés par des études observationnelles n’ont pas pu être retrouvés par des essais randomisés. Ces exemples montrent la fragilité potentielle des résultats des études observationnelles et qu’en l’état actuel des pratiques ces études ne permettent pas de produire des résultats au-delà de tout doute raisonnable.

Lorsque ces études observationnelles sont réalisées après les essais cliniques pour confirmer en vraie vie leur résultat, un constat complètement différent est fait avec très peu d’échecs de confirmation. Cette situation s’explique parfaitement par la problématique connue du p hacking dans les études observationnelles [63] . Quand l’étude observationnelle est réalisée en premier, avant les essais cliniques, les retours d’expériences attirent l’attention sur une faible aptitude à estimer correctement le réel bénéfice des traitements. Tandis que lorsque ces études sont réalisées après les essais alors que le résultat à obtenir est connu, elle réussit presque toujours à retrouver le résultat attendu. Le phénomène connu de p hacking provenant de la possibilité d’adapter les choix d’analyse (covariable d’ajustement ou population d’analyse) en fonction des résultats produits pourrait expliquer la bonne performance des études observationnelles lorsqu’elles sont réalisées alors que le résultat à produire est connu. Un biais de publication n’est pas à exclure aussi dans cette situation.

Cela ne concerne pas les situations particulières où l’étude observationnelle pré-déclarée et bien conduite est de fait la meilleure source de preuve envisageable et, certainement, la meilleure contre-mesure à des développements effectués trop rapidement pour apporter une solution temporaire à des situations d’impasse thérapeutique. La discordance avec des essais réalisés antérieurement est alors, évidemment pas espérée, mais clairement attendue.