Auteur Pezel T.

Service de Cardiologie, CHU Lariboisière, PARIS ; Unité Inserm-UMR 942, PARIS.

Analyse article
0

Et s’il n’existait pas qu’une seule façon de mourir ? Réduire la mortalité de nos patients en augmentant leur espérance de vie est probablement l’ultime objectif en recherche clinique. En effet, la mortalité s’est imposée en cardiologie comme l’un des critères de jugement de référence pour les études thérapeutiques et observationnelles pronostiques. Ainsi, dans le cadre d’une étude thérapeutique, réduire la récidive d’infarctus du myocarde ou d’hospitalisation pour décompensation cardiaque c’est bien, mais réduire la mortalité toute cause ou la mortalité de cause cardiovasculaire, c’est encore mieux. Cependant, la définition de la mortalité en recherche clinique peut varier en fonction de la méthodologie de l’étude, avec des conséquences parfois importantes.
Ainsi, l’objectif de cet article vise à présenter les points clés permettant d’évaluer la robustesse de la définition de la mortalité dans une publication. Ensuite, nous détaillerons les avantages et inconvénients à choisir un critère de type mortalité spécifique ou mortalité toute cause.

Analyse article
0

La recherche est-elle déconnectée des problématiques cliniques quotidiennes que nous rencontrons dans notre pratique ?
Incontestablement, la façon la plus rationnelle de répondre à cette question consiste à évaluer “la validité externe” de l’article que vous étudiez. En effet, elle correspond au degré de généralisabilité des résultats d’une étude à la pratique quotidienne.
Tout l’intérêt de cette évaluation est qu’elle répond à une grille relativement standardisée décrite dans les recommandations de lecture critique d’article. L’objectif de cet article vise à présenter les points clés de cette évaluation.

Analyse article
0

L’intelligence artificielle (IA) bouleverse particulièrement le monde de la cardiologie ces dernières années. En effet, l’IA permet le développement d’algorithmes pour l’analyse d’ECG, d’images d’échocardiographie ou d’IRM cardiovasculaire.
Au-delà de nous permettre d’interpréter ces données techniques, l’IA est également utile pour l’analyse statistique de grandes bases de données comportant plusieurs milliers de patients avec des dizaines de paramètres mesurés : la fameuse “gestion des big data”.
Ces toutes dernières années, de nombreuses études cardiologiques ont été publiées à très haut niveau, utilisant ce type d’outil d’IA et permettant de mieux classer les patients en fonction de la meilleure analyse possible des données disponibles.
Le clustering est incontestablement l’entité la plus fréquemment rencontrée avec ce type d’outil. Ainsi, dans cet article nous présenterons, de façon simple, les grands principes du clustering dans le but de nous permettre d’analyser les résultats d’une étude utilisant ce type de méthode.

Analyse article
0

La fameuse “courbe ROC”… Cet outil statistique historique est toujours un grand incontournable des études pronostiques et diagnostiques qui permet d’évaluer la valeur pronostique d’un nouveau marqueur ou la performance diagnostique d’un nouveau test. Cependant, son principe et les détails de son interprétation restent parfois flous pour de nombreux cliniciens. De plus, ses différentes applications en pratique sont souvent plus étendues qu’on ne l’imagine. Pour toutes ces raisons, nous allons revenir dans cet article sur les grands enjeux de cette figure.

Analyse article
0

Ce titre un peu barbare, je vous l’accorde, ne vous a donc pas découragé à lire cet article, et c’est tant mieux ! En effet, nous allons aborder de façon très simple une gamme d’outils statistiques de plus en plus présents dans les études observationnelles.
Le rationnel de ces outils est simple. Pendant longtemps, nous avons réalisé des études évaluant simplement l’association entre un nouveau marqueur (le score calcique coronaire, par exemple) et la survenue des événements cardiovasculaires. Ainsi, il est intéressant de montrer que plus le score calcique est élevé, plus le nombre d’événements cardiovasculaires est important. Cependant, la vraie question clinique que l’on a envie de se poser serait de savoir si cette association persiste même lorsque l’on prend en compte les facteurs de risque cardiovasculaire traditionnels (âge, diabète, hypertension…). Car, en réalité, si ce nouveau marqueur est associé à la survenue d’événements cardiovasculaires, mais que cette association est “annulée” par la prise en compte des facteurs de risque cardiovasculaire traditionnels (ajustement), alors ce nouveau marqueur n’a absolument aucun intérêt en routine clinique !

Analyse article
0

Ces dernières années, la formation des étudiants en médecine est en pleine mutation, avec une place croissante de l’enseignement par simulation. En effet, la simulation est récemment devenue une obligation légale dans l’évaluation des étudiants en médecine de 2e cycle (loi Santé 2022) [1]. Cet enseignement par simulation repose notamment sur différents types d’innovations techniques (simulateurs patients haute-technicité, simulateurs procéduraux pour les gestes invasifs, réalité virtuelle augmentée, serious games…) avec un seul objectif : former l’apprenant en toute sécurité avant qu’il réalise un geste plus ou moins invasif sur le patient ou qu’il soit confronté à une situation clinique critique. Le grand adage de l’enseignement par simulation est : “Jamais la première fois sur le patient !” [2]
Cependant, comme tout processus de formation, il est indispensable d’en avoir une évaluation robuste et scientifique grâce à des études dédiées. Nous vous proposons ainsi d’aborder ensemble les grands principes méthodologiques de ces études bien particulières, qui sont en train de façonner le mode de formation des médecins de demain.

Analyse article
0

L’imagerie cardiovasculaire multimodale connaît une période d’engouement sans précédent avec des développements techniques majeurs proposés par les constructeurs. Cet attrait pour l’imagerie multimodale est d’ailleurs bien présent auprès des jeunes internes de cardiologie. En effet, d’après un sondage récent réalisé par le Collège des cardiologues en formation (CCF) de la Société Française de Cardiologie, l’imagerie cardiovasculaire multimodale serait la première surspécialité (FST – option) choisie par les internes devant la rythmologie et la cardiologie interventionnelle…
Ainsi, les articles d’imagerie cardiovasculaire sont de plus en plus présents dans la littérature et lors des congrès nationaux et internationaux. Cependant, cet univers qui navigue entre la cardiologie et la radiologie présente ses propres codes et sa méthodologie spécifique, avec de véritables astuces à connaître pour faire la part des choses entre “véritable avancée diagnostique pour le patient” et “effet de style visuel”.
Nous vous proposons d’aborder ensemble les grands pièges à vérifier fréquemment dans les articles d’imagerie cardiovasculaire.

Analyse article
0

Les analyses intermédiaires sont de plus en plus fréquentes dans les grands essais cliniques, notamment en cas de suivi important. En effet, l’enjeu d’une analyse intermédiaire est de pouvoir arrêter une étude plus tôt que prévu en fonction de certaines conditions précises, comme par exemple une grande efficacité ou, au contraire, une toxicité élevée. L’enjeu d’arrêter un essai clinique précocement est capital, tant sur le plan de la pertinence clinique des données que des retombées financières du projet. Il est donc important pour nous de comprendre le fonctionnement et le rôle de cet incroyable outil qui peut permettre de gagner des mois, voire des années, sur le développement d’une nouvelle molécule, tout en permettant une économie substantielle sur le budget de l’étude.

Analyse article
0

Dans la littérature, la quasi-totalité des articles que nous rencontrons correspond à des études dites comparatives. Cela signifie que l’on évalue l’efficacité et la tolérance d’une nouvelle intervention (thérapeutique le plus souvent) réalisée dans un groupe, comparativement à un groupe qui ne reçoit pas cette nouvelle intervention. Or, cela signifie que l’on ne mesure jamais “l’efficacité propre” de la nouvelle intervention mais simplement la différence d’efficacité qu’elle entraîne par rapport au groupe contrôle. On imagine alors aisément que toute modification touchant le groupe contrôle entraînera immédiatement une variation du résultat principal de l’étude…
Ainsi, l’objectif de cet article vise à présenter le principe de groupe contrôle, en insistant sur les points clés permettant de s’assurer de sa bonne qualité pour limiter le risque de biais dans l’étude.