2 TL ; DR - Guide d’évaluation des comparaisons à un groupe contrôle externe
3 Les études de comparaison externe, de quoi s’agit-il ?
5 Les problématiques méthodologiques soulevées par les comparaisons externes
6 Les comparaisons externes sont des études observationnelles
7 Position des agences de régulation et de HTA
8 De la nécessité d’avoir des preuves de l’intérêt cliniques des nouveaux traitements
9 Les sources de données utilisables
10 Les problématiques liées à l’aspect rétrospectif de ces études
12 Démarche hypothético déductive
13 L’inférence causale et les hypothèses sous-jacentes
15 Les techniques d’analyses statistiques
15.1 Les techniques basées sur l’appariement (matching )
15.2.2 Le calcul du score de propension
15.2.3 L’importance du chevauchement des distributions des scores de propension
15.3 L’appariement sur le score de propension
§ Limites de l’appariement sur le score de propension
15.4 Les méthodes de pondération
§ L’effective sample size (ESS)
§ Distribution des poids, hypothèse de positivité
15.4.2 Pondérations non basées sur le score de propension
15.5 La g computation (g formula)
15.6 Les méthodes doubles robustes
15.7 Les méthodes de régression
15.8 Les techniques d e maching learning (IA)
16 Le diagnostic d’absence de biais de confusion résiduel
18 Identifications des patients dans la source de données
21 Les outils d’évaluation du risque de biais
22 L’émulation d’un essai cible
23 Le benchmarking et les contrôles positifs
24 Analyses de sensibilité , analyses quantitatives du biais
26 Contrôle du risque alpha global
Le principe de base de la g-computation est de modéliser la survenu du critère de jugement en fonction du traitement reçu et des covariables [135] . On parle alors de modèle d’outcome (outcome model, Q model ). Sans rentrer dans les détails, ce modèle va ensuite être utilisé pour prédire le critère de jugement pour chaque patient à partir de ses valeurs sur ces covariables. L’effet traitement sera déduit de la comparaison des valeurs moyennes du critère de jugement prédites dans chaque groupe : valeurs moyennes prédites sous traitement pour les patients du groupe traité et valeurs moyennes prédites sans traitement pour ces mêmes patients du groupe traité ce qui permet d’obtenir l’ATT (average treatment effect among treated , cf. section 13.4). Ainsi la g-computation permet de trouver le contrefait du groupe traité (qui sera comparé non pas à la valeur moyenne observé du critère de jugement du groupe trait émis à la valeur prédite par le modèle sous traitement ceci pour des raisons mathématiques qu’ils ne nous aient pas possibles d’expliciter ici)
Cette approche s’inscrit directement dans la logique du raisonnement contrefactuel de l’inférence causale. L’effet causal est la différence entre les 2 outcomes potentiels de chaque patient, c’est-à-dire la valeur du critère de jugement sous traitement et sans traitement de chaque patient. Bien sûr les valeurs de ces 2 outcomes potentiels ne sont pas accessibles simultanément pour un patient donné (qui a été soit traité, soit non traité). Elles sont cependant estimables sous certaines conditions à l’aide du modèle d’outcome qui permet d’appréhender ce que devraient être ces 2 outcomes potentiels avec et sans traitement en fonction des caractéristiques des patients.
De nombreuses variantes sont possibles. Un seul modèle prédisant l’outcome en fonction du traitement et des covariables peut être construit à partir de toutes les données de l’étude, ou deux modèles, un pour chaque traitement.
Dans le cadre des comparaisons à un groupe contrôle externe, afin d’obtenir l’estimand ATT, l’outcome model est appliqué aux patients du groupe traité, mais en forçant l’absence de traitement. Cela permet de prédire l’outcome potentiel des patients traités s’il n’avait pas reçu ce traitement (mais le traitement contrôle). Il s'agit bien du contrefait du groupe traité.
Le modèle d’outcome est en général construit en utilisant la régression logistique, mais comme il s’agit avant tout d’un modèle prédictif rien n’interdit l’utilisation d’autres techniques, en particulier, celles de machine learning (IA) : xgboost, réseau neuronaux, SVM, random forest, ou superlearner.
La g-computation est aussi appelée g ‑ formula , g ‑ estimation , marginal structural models .
La g-computation permet de calculer indirectement un effet marginal à partir d’une approche de régression grâce à une étape de standardisation.
La g-computation est aussi utile pour gérer des facteurs de confusion évoluant au cours du temps (time ‑ varying confounding ), ou des traitements changeant au cours du temps. Elle est aussi utile quand les facteurs de confusion à la baseline sont influencés par des traitements précédents.