Les essais contrôlés randomisés restent l’étalon-or en matière d’autorisation de mise sur le marché dans le domaine des essais thérapeutiques de la SEP. Les “Real world observational data” issues de grandes cohortes ou de registres peuvent toutefois fournir des compléments précieux pour de nombreuses questions.
Avec l’augmentation des options thérapeutiques pour la sclérose en plaques (SEP), des questions pertinentes se posent pour la décision thérapeutique, par exemple en ce qui concerne le pronostic individuel, le choix des substances ou encore la séquence des médicaments utilisés. Alors que les essais thérapeutiques du plus haut niveau de preuve justifient l’approbation de nouvelles substances, ils ne peuvent toutefois répondre que de manière très limitée à des questions importantes dans la pratique clinique quotidienne. Ainsi, les essais randomisés, contrôlés et en double aveugle (RCT) sont considérés comme le “gold standard” des essais thérapeutiques. Dans le domaine de la SEP, l’étude sur l’interféron bêta 1b menée au début des années 1990 a établi une référence pour les études thérapeutiques modernes grâce à ces exigences de qualité et à l’intégration de l’imagerie par résonance magnétique comme paramètre objectif [1]. Alors que la méthodologie des études n’a cessé d’évoluer et que les études sont devenues de plus en plus complexes (et difficiles), les ECR peuvent difficilement répondre à certaines questions importantes. Par exemple, l’analyse de (petits) sous-groupes ne permet de répondre que de manière très limitée à la question des groupes de patients qui répondent particulièrement bien à un traitement. Les ECR sélectionnent également des groupes de patients spécifiques qui ne sont pas nécessairement représentatifs de la pratique clinique quotidienne. Les critères d’exclusion incluent généralement des maladies concomitantes pertinentes, de sorte que ce sont généralement des patients jeunes, en bonne santé sur le plan interne et dont l’activité de la maladie est relativement élevée qui sont inclus dans les études correspondantes. En outre, les résultats rapportés par les patients, qui revêtent une importance croissante pour les organismes payeurs, sont souvent relégués au second plan. En outre, la durée relativement courte de l’étude (deux à trois ans) ne permet pas de tirer des conclusions sur l’efficacité et la sécurité à long terme. Enfin, les études réglementaires de phase III ne permettent souvent pas de comparer directement les différentes substances. Une méthode qui peut être utilisée pour répondre à cette question est la méta-analyse, et en cas de comparaison indirecte (absence d’études comparatives directes) de substances, ce que l’on appelle la méta-analyse en réseau. Cependant, ces analyses sont souvent basées sur des hypothèses strictes qui peuvent réduire ou fausser la pertinence des résultats [2].
“Études d’observation du “monde réel
De plus en plus, la collecte systématique de données se fait dans le cadre de grandes études de cohorte et de registres. Ces observations de grandes cohortes de patients permettent de tirer des conclusions sur l’utilisation de différentes substances dans la pratique clinique quotidienne et peuvent fournir des indications précieuses pour bon nombre des questions mentionnées [3]. Cependant, l’absence de conditions contrôlées entraîne également différentes possibilités de distorsion des résultats. Dans les cas les plus graves, cela peut conduire à ce que les différences et les effets observés soient attribués à tort à une substance plutôt qu’à d’autres facteurs pronostiques (connus et inconnus) et soient donc le résultat d’un effet de sélection. Alors que dans les essais cliniques, la randomisation permet d’équilibrer a priori les bras de traitement en fonction de facteurs tels que le taux de poussée ou la charge lésionnelle IRM, dans les études d’observation, cela n’est possible que de manière rétrospective et approximative à l’aide de méthodes statistiques. Une telle méthode, de plus en plus utilisée dans le domaine de la SEP, est le “propensity score matching”. Il s’agit de rapprocher des groupes à comparer en fonction de différentes caractéristiques. Les caractéristiques typiques qui déterminent le pronostic de la SEP comprennent par exemple le taux de poussées ou la durée de la maladie. Le score de propension (probabilité qu’un patient reçoive le traitement à l’étude) est déterminé pour chaque patient et permet de comparer les différents groupes. Cependant, cette méthode est particulièrement dépendante de la collecte la plus complète possible de données pertinentes pour la maladie et le traitement. De même, la qualité des données, par exemple l’enregistrement standardisé du handicap neurologique, est essentielle. En outre, l’ajustement est surtout possible pour les grandeurs perturbatrices connues. Par conséquent, toutes les procédures statistiques visant à atténuer les biais de comparaison au sein des études d’observation sont potentiellement sujettes à l’erreur. D’autre part, ces procédures peuvent permettre une comparabilité, en particulier pour les grands ensembles de données, par exemple dans le cadre d’études de cohortes ou de registres internationaux.
Les questions correspondantes qui ont été/seront traitées dans de grandes cohortes observationnelles monocentriques et multicentriques/multinationales sont par exemple les facteurs pronostiques dans les phases précoces de la SEP ou en cas de première manifestation potentielle de la SEP (syndrome cliniquement isolé) [3]. Par ailleurs, les analyses de grandes cohortes peuvent contribuer de manière significative à la définition claire de phénotypes cliniques tels que la SEP secondairement chronique progressive. Ainsi, les données de plus de 17 000 patients du registre international MSBase ont permis d’élaborer une définition basée sur l’EDSS, le “functional score” et la limitation dans le système fonctionnel pyramidal, qui permet de poser le diagnostic de SPMS avec une grande précision et une grande reproductibilité dans un court délai d’observation (trois mois) [4]. Cette définition exacte est pertinente pour les futurs ECR qui incluent la conversion au SPMS comme critère d’inclusion ou d’évaluation.
Une question très pertinente pour la pratique clinique quotidienne porte sur les facteurs pronostiques potentiels concernant la réponse à l’immunothérapie. De telles études donnent lieu à des algorithmes quantitatifs pour l’évaluation du pronostic sous immunothérapie en cours [5,6]. Ainsi, la combinaison de poussées avec une activité IRM semble avoir la meilleure valeur prédictive de non-réponse à l’interféron bêta. En outre, l’activité IRM isolée au cours de la première année de traitement par interféron bêta semble également être pertinente pour la progression du handicap au cours des trois années suivantes [6]. Cependant, le nombre exact de nouvelles lésions T2, par exemple, ou la valeur seuil exacte, est très variable selon les études. On ne sait pas si ces différents seuils sont liés à des aspects méthodologiques (par exemple, le moment des examens IRM, la latence d’action des médicaments, les différentes définitions de la réponse au traitement) ou s’il existe réellement un degré d’activité minimale (subclinique) de la maladie à tolérer. Cet exemple montre également que les résultats d’analyses rétrospectives de grands ensembles de données peuvent tout à fait générer des hypothèses sur les mécanismes pathologiques sous-jacents. Par exemple, la transposition de tels résultats au-delà des interférons à d’autres substances permettrait d’acquérir des connaissances sur le mécanisme d’action postulé (par exemple, effets différentiels sur la barrière hémato-encéphalique à l’IRM et progression ultérieure du handicap). Les études d’observation à grande échelle ont également des implications pharmaco-économiques, dans la mesure où, par exemple, la majorité de ces études suggèrent un effet positif de l’immunothérapie précoce et cohérente sur le handicap à long terme, ce qui est cohérent avec les données à long terme correspondantes des études d’enregistrement [3]. De même, dans des situations cliniques spécifiques (par ex. “escalade” d’un traitement de première ligne, fin d’un traitement au natalizumab), les études d’observation de plus grande envergure correspondantes fournissent des indications précieuses qui n’ont autrement pas été étudiées dans des ECR. Enfin, les grands registres de maladies présentent également l’avantage d’un enregistrement systématique de la sécurité à long terme des différents médicaments par rapport à d’autres groupes de patients similaires, mais traités différemment. De même, l’innocuité des séquences thérapeutiques peut être mieux étudiée que dans les ECR courts.
Conclusion
En résumé, les essais contrôlés randomisés restent l’étalon-or pour étudier l’efficacité des thérapies. Cependant, la conception rigide de l’étude est souvent insuffisante pour les conditions de la vie clinique quotidienne. Dans la vie quotidienne, de nombreuses questions sont pertinentes et ne peuvent pas toutes trouver de réponse dans des études randomisées et contrôlées, que ce soit pour des raisons méthodologiques, financières ou éthiques. Alors que les méta-analyses sont également soumises à des hypothèses de base rigides et ne fournissent que des informations supplémentaires limitées, notamment sur la robustesse des données, les données dites “observationnelles du monde réel” peuvent constituer des compléments précieux. Les données disponibles à ce jour suggèrent que les études randomisées et les grandes études non randomisées aboutissent généralement à des résultats similaires. Par ailleurs, le développement de méthodes statistiques a pour but de prouver la validité des modèles dans des cohortes de SEP plus importantes et de minimiser en même temps les autres sources de perturbation correspondantes. Néanmoins, l’étape consistant à appliquer les résultats au niveau de l’étude/du groupe à un patient individuel se heurte à divers obstacles pour toutes les approches. Il serait également souhaitable d’établir un lien avec des méthodes paracliniques supplémentaires ou des biomarqueurs (par ex. le neurofilament light comme biomarqueur de la neurodégénérescence), qui pourraient à leur tour valider biologiquement les données cliniques.
Messages Take-Home
- Les essais contrôlés randomisés (ECR) restent l’étalon-or en matière d’autorisation de mise sur le marché dans le domaine des essais thérapeutiques sur la sclérose en plaques.
- Les “real world observational data” issues de grandes cohortes ou de registres peuvent fournir des compléments précieux pour de nombreuses questions qui ne sont pas représentées par les ECR.
- Les différentes approches méthodologiques sont complémentaires et il reste des difficultés à traduire les données au niveau de l’étude en directives d’action pour les patients individuels.
- Le développement systématique de grandes bases de données et de leurs fondements statistiques et méthodologiques (“Big MS Data”), associé à d’autres développements dans le domaine des biomarqueurs, permet d’espérer des progrès significatifs.
Littérature :
- IFNB Multiple Sclerosis Study Group : Interferon beta-1b is effective in relapsing-remitting multiple sclerosis. I. Résultats cliniques d’un essai clinique multicentrique, randomisé, en double aveugle, contrôlé par placebo. Neurology 1993 ; 43 : 655-661.
- Kiefer C, Sturtz S, Bender R : Comparaisons indirectes et méta-analyses en réseau : estimation des effets en l’absence d’essais tête-à-tête – partie 22 d’une série sur l’évaluation des publications scientifiques. Dtsch Arztebl Int 2015 ; 112 : 803-808.
- Trojano M, et al. : Décisions de traitement dans la sclérose en plaques – enseignements tirés d’études observationnelles dans le monde réel. Nature Reviews Neurol 2017 ; 13 : 105-118.
- Lorscheider J, et al : Defining secondary progressive multiple sclerosis. Brain 2016 ; 139 : 2395-2405.
- Sormani MP, et al : Scoring treatment response in patients with relapsing multiple sclerosis. Mult Scler 2013 ; 19 : 605-612.
- Sormani MP, et al : Assessing response to interferon-β in a multicenter dataset of patients with MS. Neurology 2016 ; 87 : 134-140.
InFo NEUROLOGIE & PSYCHIATRIE 2017 ; 15(4) : 8-10