Covid-19 et numérique : appliquons dès maintenant la garantie humaine de l’IA !

Une reconnaissance de plus en plus large du principe de garantie humaine de l’intelligence artificielle en santé

Dans les deux tomes de la fiction d’anticipation S.A.R.R.A.[1], je décris la dystopie d’une Europe dominée par les géants numériques américains et chinois – PanGoLink et FU-TECH – et qui n’a d’autre recours, face à une pandémie d’Ebola, que de jeter aux oubliettes tous les principes qui l’avaient amenée à établir le règlement général sur la protection des données.

 

Pour éviter une perspective aussi sinistre, le principe de garantie humaine de l’IA est issu d’un mouvement de propositions académiques, de citoyens mais aussi de professionnels de santé. La reconnaissance de ce principe dans l’article 11 du projet de loi bioéthique et sa concrétisation était le sens même du projet depuis le départ par Ethik-IA. Les avancées récemment obtenues pour faire comprendre et reconnaître ce principe n’auraient pu obtenues sans un certain nombre de relais essentiels dont celui du Pr Emmanuel Hirsch. La pandémie de Covid-19 a interrompu le calendrier parlementaire et donc suspendu l’adoption définitive de la révision bioéthique. Il est impératif de ne pas rester « en suspension dans l’air » et d’avancer dès à présent pour rendre effectifs les principes portés par l’article 11.

 

Le concept de « garantie humaine » peut paraître abstrait mais il est, en réalité, très opérationnel. Et je crois profondément que ce que nous vivons actuellement dans le débat sur le recours au numérique face au Covid-19 – avec, en particulier, la question du Data Tracking – montre toute la nécessité d’une mise en application immédiate de ce principe.

Dans le cas de l’IA, l’idée est d’appliquer les principes de régulation de l’intelligence artificielle en amont et en aval de l’algorithme lui-même, en établissant des points de supervision humaine. Non pas à chaque étape, sinon l’innovation serait bloquée. Mais sur des points critiques identifiés dans un dialogue partagé entre les professionnels, les patients et les concepteurs d’innovation.

La supervision peut s’exercer avec le déploiement de « collèges de garantie humaine » associant médecins, professionnels paramédicaux et représentants des usagers. Leur vocation serait d’assurer a posteriori une révision de dossiers médicaux pour porter un regard humain sur les options thérapeutiques conseillées ou prises par l’algorithme. L’objectif consiste à s’assurer « au fil de l’eau » que l’algorithme reste sur un développement de Machine Learning à la fois efficace médicalement et responsable éthiquement. Les dossiers à auditer pourraient être définis à partir d’événements indésirables constatés, de critères prédéterminés ou d’une sélection aléatoire.

Il est à relever que le principe de garantie humaine a reçu, sur le dernier trimestre, des concrétisations dans trois autres cadres très significatifs : d’une part, la garantie humaine devrait, ainsi qu’Isabelle Adenot, membre du collège de la Haute Autorité de santé, l’a annoncé dans le cadre d’un colloque dédié au principe par la chaire Santé de Sciences Po le 14 janvier dernier, être intégrée à la grille d’auto-évaluation des dispositifs médicaux intégrant de l’IA préalablement à leur admission au remboursement ; d’autre part, le principe de garantie humaine fait actuellement l’objet de discussions et de prolongements dans le cadre de la task-force dédiée par l’OMS à la régulation de l’IA en santé en vue de l’émission d’une recommandation dans le courant de ce premier semestre 2020. Cette task-force a également conduit des travaux spécifiques sur les enjeux éthiques du recours à l’IA face au Covid-19 ; enfin, le principe a été repris dans le Livre blanc sur l’IA publié par la Commission européenne le 19 février 2020.

[1] S.A.R.R.A., une intelligence artificielle (juin 2018) ; S.A.R.R.A., une conscience artificielle (mars 2020), Éditions Beta Publisher.

Les cas d’usage de l’IA face au Covid-19 et le besoin d’une garantie humaine

Dans la réponse au Covid-19, certains pays – en particulier en Asie – ont eu plus largement recours que d’autres à l’IA, au pilotage par les données et aux technologies numériques. Des dispositifs de reconnaissance faciale ainsi que l’utilisation de thermomètres connectés ont permis la surveillance de la température et l’identification de personnes à risque d’être positive au Covid-19. Les données de géolocalisation ont été largement utilisées pour connaître les flux des personnes et bloquer certains déplacements. Ils ont aussi été utilisés pour décontaminer massivement les zones confinées. Des robots ont été introduits dans certains hôpitaux, pour accompagner voire renforcer les équipes médicales, assurer une présence auprès des patients et répondre à leurs besoins, décontaminer certains services… Le Data Tracking a été mis en œuvre sans restriction et un choix d’efficacité a été fait au détriment de la protection des données de santé.

 

Mais au-delà des recours à ces dispositifs fortement visibles et dont les usages ont été pour certains contestables au regard des principes de nos sociétés démocratiques, le recours à l’intelligence artificielle en temps de crise épidémique porte aussi la promesse d’accélération de certains procédés relevant aussi bien du diagnostic que de la recherche. Des méthodes diagnostiques reposant sur la reconnaissance d’images par apprentissage machine permettraient un diagnostic beaucoup plus rapide et efficace sur la base de clichés de tomodensitométrie. L’IA induit aussi un potentiel d’apport majeur concernant l’identification d’éventuels traitements efficaces.

 

Par ailleurs, un débat mondial se fait jour sur le recours au Data Tracking, traitement massif de données pour suivre les personnes infectées et, le cas échéant, faire respecter les mesures de confinement. Ce type de dispositif a d’ores et déjà été mis en œuvre en Asie dans des contextes autoritaires. L’Europe cherche actuellement la voie d’une possible introduction de ce type de vecteur dans des contextes de compatibilité avec les valeurs essentielles qui avaient sous-tendu l’adoption du RGPD.

 

Néanmoins, les options radicales, choisies par certains pays, pour répondre au risque collectif au détriment de la protection des libertés individuelles, semblent très éloignées des principes fondateurs du RGPD en Europe et, plus largement, des valeurs essentielles de notre médecine personnalisée. Cette gestion de crise illustre l’importance et l’intérêt de la garantie humaine de l’IA, consistant dans la mise en place d’une supervision humaine lors du recours à un algorithme d’intelligence artificielle.

 

Pour répondre à l’urgence sanitaire majeure associée au Covid-19, anticipons donc la mise en œuvre de l’article 11 du projet de loi de bioéthique et du principe de garantie humaine. Mettons en place dès les prochains jours un Collège de garantie humaine du Data Tracking en France pour bénéficier des regards croisés des professionnels et des représentants des patients. Cette supervision en temps réel sera beaucoup plus efficace que toutes les pseudo-garanties formelles ab initio que nous pourrions imaginer. Pour éviter la dystopie, mettons-nous à l’œuvre et faisons le pari de l’efficacité d’une régulation positive par la garantie humaine de l’innovation technologique.

 

 

David Gruson

Chaire Santé Sciences Po Paris, fondateur d’Ethik-IA, directeur du programme Santé Jouve.