Aller au contenu principal

L’intelligence artificielle guide une prise en charge plus anticipée et personnalisée de la COVID-19

Recherche Article publié le 01 février 2021 , mis à jour le 01 février 2021

Une intelligence artificielle (IA), développée en étroite collaboration par les médecins et chercheurs de Gustave Roussy, de l’Université Paris-Saclay, de l’hôpital Bicêtre – AP-HP, d’Inria et de la start-up Owkin établit un score de gravité des malades atteints de la Covid-19 dès le diagnostic. Elle permet de prédire leur évolution. Son code, accessible à tous, est publié dans la revue Nature Communications.

L’évolution clinique des patients atteints de Covid-19 est très variable et pouvoir anticiper le risque d’aggravation (besoins en oxygène, transfert en réanimation) d’un malade dès le diagnostic est un enjeu important.  D’où l’intérêt de l’IA développée en étroite collaboration par les médecins et chercheurs de Gustave Roussy, de l’Université Paris-Saclay, de l’hôpital Bicêtre – AP-HP, d’Inria et de la start-up Owkin.

Cette Intelligence artificielle qui vient d’être installée en routine clinique dans le service de radiologie de Gustave Roussy, établit un score indicatif de gravité en intégrant différents paramètres pour prédire l’évolution du malade. Le calcul qui ne prend que deux à trois minutes peut être fourni au médecin en même temps que le compte-rendu de scanner pour chaque patient évalué.

Gradué de 1 (risque très faible) à 5 (risque très élevé), le score met en alerte le praticien et permet d’adapter la surveillance du malade afin d’anticiper une dégradation ; il permet ainsi une prise en charge thérapeutique plus personnalisée des patients atteints de Covid.

Ce score de gravité a été établi dans le cadre de l’étude ScanCovIA dirigée par la Pr Nathalie Lassau, radiologue à Gustave Roussy et menée en étroite collaboration entre les équipes de Gustave Roussy, l’Université Paris-Saclay, l’hôpital Bicêtre – AP-HP, Inria et Owkin.

Cette étude mise sur l’analyse croisée de multiples paramètres cliniques, biologiques et radiologiques par une intelligence artificielle et utilise un outil-clef : le scanner thoracique 3D, qui évalue l’ampleur et la nature des lésions au niveau du thorax et diagnostique les atteintes pulmonaires.

Calculer de manière précise un score de gravité

Entrainée puis validée sur plus de 1 000 patients, l’IA basée sur le deep learning a ainsi analysé et combiné simultanément les données hétérogènes issues de scanner 3D, des données cliniques, biologiques ainsi que les antécédents et co-morbidités des patients. Sur 65 paramètres évalués au total, cinq se sont révélés plus particulièrement significatifs dans le calcul du pronostic : la saturation en oxygène, le taux de plaquettes (indice de la fonction médullaire), le taux d’urée (reflet de l’altération de la fonction rénale), l’âge et le sexe.

En combinant ces 5 paramètres et le scanner 3D, l’IA devient capable de calculer de manière précise un score de gravité qui catégorise le malade en fonction de sa probable évolution, son risque de transfert en réanimation, d’avoir besoin d’une assistance respiratoire, etc. Elle permet ainsi de répondre aux questions essentielles dans le cadre d’une prise en charge urgente et d’anticiper les besoins et les options thérapeutiques.

Déployée dans le service de radiologie de Gustave Roussy depuis un mois, cette IA confirme son utilité en tant qu’aide à la prise en charge clinique des malades de la Covid. La mise en routine clinique de cette IA en 6 mois est un bel exemple d’accélération de la recherche au service des malades en pleine pandémie de Covid.
Dans la publication de la revue Nature Communications, un comparatif place l’IA de ScanCovIA comme étant la plus performante parmi 11 études publiées à ce jour. Son code est en open source et peut être utilisé par tous les services d’imagerie en France et dans le monde.

Cette étude a bénéficié du soutien de donateurs dont Malakoff Humanis.

Integrating deep learning CT-scan model, biological and clinical variables to predict severity of COVID-19 patients

Nature Communications, publication avancée en ligne le 27 janvier 2021 - DOI : 10.1038/s41467-020-20657-4
Nathalie Lassau1,2, Samy Ammari1,2, Emilie Chouzenoux3, Hugo Gortais4, Paul Herent5, Matthieu Devilder4, Samer Soliman4, Olivier Meyrignac4, Marie-Pauline Talabard4, Jean-Philippe Lamarque1,2, Remy Dubois5, Nicolas Loiseau5, Paul Trichelair5, Etienne Bendjebbar5, Gabriel Garcia1, Corinne Balleyguier1,2, Mansouria Merad6, Annabelle Stoclin7, Simon Jegou5, Franck Griscelli8, Nicolas Tetelboum1, Yingping Li2,3, Sagar Verma3, Matthieu Terris3, Tasnim Dardouri3, Kavya Gupta3, Ana Neacsu3, Frank Chemouni7, Meriem Sefta5, Paul Jehanno5, Imad Bousaid9, Yannick Boursin9, Emmanuel Planchet9, Mikael Azoulay9, Jocelyn Dachary5, Fabien Brulport5, Adrian Gonzalez5, Olivier Dehaene5, Jean-Baptiste Schiratti5, Kathryn Schutte5, Jean-Christophe Pesquet3, Hugues Talbot3, Elodie Pronier5, Gilles Wainrib5, Thomas Clozel5, Fabrice Barlesi6, Marie-France Bellin2,4, Michael G. B. Blum5
1.Imaging Department Gustave Roussy. Université Paris Saclay, Villejuif, F-94805
2.Biomaps. UMR1281 INSERM, CEA, CNRS, Université Paris-Saclay. Villejuif, F-94805
3.Centre de Vision Numérique, Université Paris-Saclay, CentraleSupélec, Inria, 91190 Gif-sur-Yvette, France
4.Radiology Department, Hôpital Bicêtre – AP-HP, Université Paris Saclay, Le Kremlin-Bicêtre, France
5.Owkin Lab, Owkin, Inc. New York, NY USA
6.Département d'Oncologie Médicale, Gustave Roussy, Université Paris-Saclay, Villejuif, F-94805, France
7.Département Interdisciplinaire d’Organisation des Parcours Patients, Service de Medecine intensive réanimation, Gustave Roussy, Université Paris-Saclay, Villejuif, F-94805, France
8.Département de Biologie, Gustave Roussy, Université Paris-Saclay, Villejuif, F-94805, France
9.Direction de la Transformation Numérique et des Systèmes d'Information, Gustave Roussy, 94800 Villejuif, France.