Le coronavirus et l’IA


Ce rapport de l’Initiative pour l’intelligence artificielle et les technologies émergentes (AIET) de la Brookings Institution fait partie de la gouvernance de l’IA », une série qui identifie les principaux problèmes de gouvernance et de normalisation liés à l’IA et propose des remèdes politiques pour relever les défis complexes associés aux technologies émergentes.
L’épidémie de COVID-19 a stimulé une couverture médiatique considérable sur les façons dont l’intelligence artificielle (IA) peut lutter contre la propagation de la pandémie. Malheureusement, une grande partie n’a pas été suffisamment sceptique quant aux affirmations de la valeur de l’IA. Comme de nombreux outils, l’IA a un rôle à jouer, mais son effet sur l’épidémie est probablement faible. Bien que cela puisse changer à l’avenir, des technologies telles que la communication de données, la télémédecine et les outils de diagnostic conventionnels ont actuellement beaucoup plus d’impact que l’IA.
1. Faites appel aux experts en la matière
Quel que soit le sujet, l’IA n’est utile que lorsqu’elle est appliquée judicieusement par des experts en la matière – des personnes ayant une longue expérience du problème qu’elles tentent de résoudre. Malgré tous les discours sur les algorithmes et les mégadonnées, décider quoi prédire et comment encadrer ces prédictions est souvent l’aspect le plus difficile de l’application de l’IA. Prévoir efficacement un problème mal défini est pire que de ne rien faire du tout. De même, cela nécessite toujours une expertise en la matière pour savoir si les modèles continueront de fonctionner à l’avenir, seront précis sur différentes populations et permettront des interventions significatives.
Dans le cas de la prévision de la propagation de COVID-19, regardez les épidémiologistes, qui utilisent des modèles statistiques pour examiner les pandémies depuis longtemps. Des modèles mathématiques simples de la mortalité due à la variole remontent à 1766 et l’épidémiologie mathématique moderne a commencé au début des années 1900. Le domaine a développé une connaissance approfondie de ses problèmes particuliers, tels que la façon de prendre en compte les facteurs communautaires dans le taux de transmission des maladies, que la plupart des informaticiens, statisticiens et ingénieurs en apprentissage automatique n’auront pas.
Il n’y a pas de valeur dans l’IA sans expertise en la matière. »
Il est certain que certains modèles épidémiologiques utilisent l’IA. Cependant, cela ne doit pas être confondu avec l’IA prédisant la propagation de COVID-19 seule. Contrairement aux modèles d’IA qui n’apprennent que les modèles à partir de données historiques, les épidémiologistes construisent des modèles statistiques qui incorporent explicitement un siècle de découvertes scientifiques. Ces approches sont des journalistes très, très différents qui couvrent à bout de souffle l’IA qui a prédit le coronavirus »et les quants sur Twitter créant leurs tout premiers modèles de pandémies devraient tenir compte: il n’y a pas de valeur dans l’IA sans expertise en la matière.
2. L’IA a besoin de beaucoup de données
L’ensemble d’algorithmes qui a conquis Go, un jeu de société stratégique et Jeopardy! » ont accompli des exploits impressionnants, mais ils ne sont encore que des reconnaissances de motifs (très complexes). Pour apprendre à faire quoi que ce soit, l’IA a besoin de tonnes de données antérieures avec des résultats connus. Par exemple, cela pourrait être la base de données de Jeopardy historique! » questions, ainsi que les bonnes réponses. Alternativement, une simulation informatique complète peut être utilisée pour entraîner le modèle, comme c’est le cas pour Go et les échecs. Sans l’une de ces deux approches, l’IA ne peut pas faire grand-chose. Cela explique pourquoi l’IA ne peut à elle seule prédire la propagation de nouvelles pandémies: il n’y a pas de base de données sur les épidémies antérieures de COVID-19 (comme c’est le cas pour la grippe).
Mardi 17 mars 2020
Ainsi, en adoptant l’approche sceptique de l’IA, il est essentiel de se demander si une entreprise a dépensé le temps et l’argent pour créer un ensemble de données complet pour apprendre efficacement la tâche en question. Malheureusement, tout le monde ne prend pas le chemin du scepticisme. VentureBeat a régurgité les affirmations de Baidu selon lesquelles l’IA peut être utilisée avec l’imagerie thermique infrarouge pour voir »la fièvre qui est un symptôme de COVID-19. Athena Security, qui vend un logiciel d’analyse vidéo, a également affirmé avoir adapté son système d’IA pour détecter la fièvre à partir des données d’imagerie thermique. Vice, Fast Company et Forbes ont récompensé les affirmations de l’entreprise, qui comprenaient une fausse démonstration de logiciel, avec une presse gratuite.
Pour même tenter cela, les entreprises auraient besoin de collecter des données d’imagerie thermique complètes auprès de personnes tout en prenant simultanément leur température avec un thermomètre conventionnel. En plus d’atteindre un échantillon diversifié en termes d’âge, de sexe, de taille et d’autres facteurs, cela nécessiterait également que beaucoup de ces personnes souffrent réellement de fièvre – le résultat qu’elles tentent de prédire. Il renforce la crédibilité que, au milieu d’une pandémie mondiale, les entreprises collectent des données auprès de populations importantes de personnes fiévreuses. Bien qu’il existe d’autres moyens possibles d’atteindre des ensembles de données préexistants, la remise en question des sources de données est toujours un moyen significatif d’évaluer la viabilité d’un système d’IA.
3. Ne faites pas confiance à la précision de l’IA
La société Alibaba affirme qu’elle peut utiliser l’IA sur l’imagerie CT pour diagnostiquer COVID-19, et maintenant Bloomberg rapporte que la société propose gratuitement ce logiciel de diagnostic aux pays européens. Il y a un certain attrait à l’idée. Actuellement, le diagnostic de COVID-19 se fait par un processus appelé réaction en chaîne par polymérase (PCR), qui nécessite un équipement spécialisé. Y compris le temps d’expédition, cela peut facilement prendre plusieurs jours, alors qu’Alibaba dit que son modèle est beaucoup plus rapide et précis à 96%.
Cependant, il n’est pas clair que ce nombre d’exactitude soit fiable. Un secret mal gardé des praticiens de l’IA est que la précision de 96% est étrangement élevée pour tout problème d’apprentissage automatique. S’il n’est pas géré avec soin, un algorithme d’IA ira à des longueurs extraordinaires pour trouver des modèles dans les données qui sont associés au résultat qu’il essaie de prédire. Cependant, ces modèles peuvent être totalement absurdes et ne semblent fonctionner que pendant le développement. En fait, un nombre de précision gonflé peut en fait être un signe important qu’un modèle d’IA ne sera pas efficace dans le monde. Le fait qu’Alibaba affirme que son modèle fonctionne aussi bien sans mise en garde ni autocritique est suspect à première vue.
Un nombre de précision gonflé peut en fait être un signe important qu’un modèle d’IA ne sera pas efficace dans le monde. »
De plus, la précision à elle seule n’est pas suffisante pour évaluer la qualité des prévisions. Imaginez si 90% des personnes dans les données d’entraînement étaient en bonne santé et les 10% restants avaient COVID-19. Si le modèle prédisait correctement toutes les personnes en bonne santé, une précision de 96% pourrait toujours être vraie, mais il manquerait toujours au modèle 40% des personnes infectées. C’est pourquoi il est important de connaître également la sensibilité du modèle », qui est le pourcentage de prédictions correctes pour les individus qui ont COVID-19 (plutôt que pour tout le monde). Ceci est particulièrement important lorsqu’un type de prédiction erronée est pire que l’autre, ce qui est le cas actuellement. Il est bien pire de suggérer à tort qu’une personne atteinte de COVID-19 n’est pas malade (ce qui pourrait lui permettre de continuer à infecter d’autres personnes) que de suggérer qu’une personne en bonne santé a COVID-19.
Globalement, c’est une tâche qui semble pouvoir être effectuée par l’IA, et cela pourrait l’être. De nouvelles recherches suggèrent que cette approche est prometteuse, mais le débat n’est pas réglé Pour l’instant, l’American College of Radiology dit que les résultats sur l’imagerie thoracique dans COVID-19 ne sont pas spécifiques et se chevauchent avec d’autres infections », et qu’il devrait ne pas être utilisé comme test de première ligne pour diagnostiquer COVID-19. » Tant que des preuves plus solides ne seront pas présentées et que les modèles d’IA ne seront pas validés en externe, les prestataires médicaux ne devraient pas envisager de modifier leurs flux de travail de diagnostic, en particulier pas en cas de pandémie.
4. Le déploiement dans le monde réel dégrade les performances de l’IA
Les circonstances dans lesquelles un système d’IA est déployé peuvent également avoir d’énormes implications sur sa valeur réelle. Lorsque les modèles d’IA quittent le développement et commencent à faire des prédictions du monde réel, ils dégradent presque toujours les performances. Dans l’évaluation des tomodensitogrammes, un modèle qui peut faire la différence entre les personnes en bonne santé et celles avec COVID-19 pourrait commencer à échouer lorsqu’il rencontre des patients malades de la grippe régulière (et c’est toujours la saison de la grippe aux États-Unis, après tout). Une baisse de 10% de précision ou plus pendant le déploiement ne serait pas inhabituelle.
Dans un article récent sur le diagnostic des grains de beauté malins atteints d’IA, les chercheurs ont remarqué que leurs modèles avaient appris que les dirigeants étaient fréquemment présents sur les images des grains de beauté connus pour être malins. Donc, bien sûr, le modèle a appris que les images sans règles étaient plus susceptibles d’être bénignes. Il s’agit d’un modèle d’apprentissage qui conduit à l’apparition d’une grande précision lors du développement du modèle, mais il provoque une forte baisse des performances lors de l’application réelle dans un environnement de soins de santé. C’est pourquoi la validation indépendante est absolument essentielle avant d’utiliser de nouveaux systèmes d’IA à fort impact.
Lorsque les modèles d’IA quittent le développement et commencent à faire des prédictions du monde réel, ils dégradent presque toujours leurs performances. »
Cela devrait engendrer encore plus de scepticisme quant aux affirmations selon lesquelles l’IA peut être utilisée pour mesurer la température corporelle. Même si une entreprise a investi dans la création de cet ensemble de données, comme indiqué précédemment, la réalité est beaucoup plus compliquée qu’un laboratoire. Bien que la mesure de la température centrale à partir des mesures thermiques du corps soit imparfaite même dans des conditions de laboratoire, les facteurs environnementaux rendent le problème beaucoup plus difficile. L’approche nécessite une caméra infrarouge pour obtenir une vue claire et précise de la face intérieure, et elle est affectée par l’humidité et la température ambiante de la cible. Bien qu’il soit de plus en plus efficace, les Centers for Disease Control and Prevention soutiennent toujours que l’imagerie thermique ne peut pas être utilisée seule – un deuxième test de confirmation avec un thermomètre précis est nécessaire.
5. La plupart des prédictions doivent permettre à une intervention d’avoir vraiment de l’importance
Dans les applications à enjeux élevés de l’IA, elle nécessite généralement une prédiction qui n’est pas seulement exacte, mais aussi qui permet de manière significative une intervention par un humain. Cela signifie qu’une confiance suffisante dans le système d’IA est nécessaire pour prendre des mesures, ce qui pourrait impliquer de hiérarchiser les soins de santé sur la base des tomodensitogrammes ou d’allouer des fonds d’urgence aux zones où la modélisation montre la propagation du COVID-19.
Avec l’imagerie thermique pour la détection de la fièvre, une intervention pourrait impliquer l’utilisation de ces systèmes pour bloquer l’entrée dans les aéroports, les supermarchés, les pharmacies et les espaces publics. Mais les preuves montrent que jusqu’à 90% des personnes signalées par l’imagerie thermique peuvent être de faux positifs. Dans un environnement où les personnes fébriles savent qu’elles sont censées rester à la maison, ce ratio pourrait être beaucoup plus élevé. Ainsi, tout en empêchant les personnes fiévreuses (et potentiellement COVID-19) de permettre la transmission communautaire est un objectif significatif, il doit y avoir une volonté d’établir des points de contrôle et un test de confirmation, ou risquer de contraindre des segments importants de la population.
Cela devrait être une considération constante pour la mise en œuvre des systèmes d’IA, en particulier ceux utilisés dans la gouvernance. Par exemple, les systèmes de détection de fraude à l’IA utilisés par l’IRS et les Centers for Medicare et Medicaid Services ne déterminent pas à eux seuls les actes répréhensibles; ils priorisent plutôt les retours et les demandes de vérification par les enquêteurs. De même, le célèbre modèle d’IA qui identifie les maisons de Chicago avec de la peinture au plomb ne fait pas lui-même le dernier appel, mais marque plutôt la résidence des inspecteurs de peinture au plomb.
6. L’IA est bien meilleure dans les moindres détails que dans les grands événements rares
Wired a publié en janvier un article intitulé An AI Epidemiologist Sent the First Warnings of the Wuhan Virus »sur un avertissement émis le 31 décembre par la société de surveillance des maladies infectieuses, BlueDot. Un article de blog a même déclaré que la société avait prédit l’épidémie avant qu’elle ne se produise. »Cependant, ce n’est pas vraiment vrai. Des rapports suggèrent que les autorités chinoises connaissaient le coronavirus par des tests en laboratoire dès le 26 décembre. De plus, les médecins de Wuhan diffusaient leurs préoccupations en ligne (malgré la censure du gouvernement chinois) et le Programme de surveillance des maladies émergentes, géré par des volontaires humains, a mis une notification le 30 décembre.
Cela dit, l’approche adoptée par BlueDot et des initiatives similaires comme HealthMap au Boston Children’s Hospital ne sont pas déraisonnables. Les deux équipes sont un mélange de scientifiques des données et d’épidémiologistes, et elles parcourent les analyses des soins de santé et les articles de presse à travers le monde et dans de nombreuses langues afin de trouver de nouvelles éclosions potentielles de maladies infectieuses. Il s’agit d’un cas d’utilisation plausible pour l’apprentissage automatique et le traitement du langage naturel et c’est un outil utile pour aider les observateurs humains. Ainsi, le battage médiatique, dans ce cas, ne vient pas du scepticisme quant à la faisabilité de l’application, mais plutôt du type spécifique de valeur qu’elle apporte.
Il est peu probable que l’IA renforce la compréhension contextuelle pour faire la distinction entre une nouvelle flambée mais gérable et une pandémie émergente de proportions mondiales. »
Même au fur et à mesure que ces systèmes s’améliorent, il est peu probable que l’IA renforce la compréhension contextuelle pour faire la distinction entre une nouvelle épidémie, mais gérable, et une pandémie émergente de proportions mondiales. L’IA peut difficilement être blâmée. Il est très difficile de prédire des événements rares, et la dépendance de l’IA à l’égard des données historiques ne lui est d’aucune utilité. Cependant, l’IA offre un peu de valeur à l’extrémité opposée du spectre, fournissant des détails infimes.
Par exemple, la semaine dernière, le gouverneur de la Californie, Gavin Newsom, a explicitement loué le travail de BlueDot pour modéliser la propagation du coronavirus à des codes postaux spécifiques, en incorporant des données sur les schémas de vol. Cela permet un approvisionnement relativement précis du financement, des fournitures et du personnel médical en fonction du niveau d’exposition dans chaque code postal. Cela révèle l’une des grandes forces de l’IA: sa capacité à faire rapidement des prédictions individualisées alors qu’il serait beaucoup plus difficile de le faire individuellement. Bien entendu, les prédictions individualisées nécessitent des données individualisées, ce qui peut entraîner des conséquences inattendues.
7. Il y aura des conséquences inattendues
Les implémentations de l’IA ont tendance à avoir des conséquences troublantes de second ordre en dehors de leur domaine de compétence exact. Par exemple, la consolidation du pouvoir de marché, l’accumulation de données non sécurisées et les problèmes de surveillance sont des sous-produits très courants de l’utilisation de l’IA. Dans le cas de l’IA pour lutter contre COVID-19, les problèmes de surveillance sont omniprésents. En Corée du Sud, les voisins des patients confirmés au COVID-19 ont reçu des informations sur les voyages et les déplacements de cette personne Taïwan, qui à bien des égards a réagi de manière proactive au coronavirus, a utilisé des données de téléphone portable pour surveiller les personnes qui avaient été assignées à rester dans leurs maisons. Israël et l’Italie vont dans la même direction. La technologie de contrôle social déployée en Chine est une préoccupation exceptionnelle, qui utilise nébuleusement l’IA pour approuver ou refuser individuellement l’accès à l’espace public.
L’action du gouvernement qui restreint les libertés civiles en cas d’urgence (et probablement après) n’est qu’une partie du problème. Les incitations que les marchés créent peuvent également conduire à une atteinte à long terme à la vie privée. À l’heure actuelle, Clearview AI et Palantir font partie des entreprises qui présentent des outils de surveillance à grande échelle au gouvernement fédéral. Il s’agit de la même IA Clearview qui a gratté le Web pour créer une énorme base de données de visages (et contraire à l’éthique), et cela en réaction à une demande existante des services de police d’identifier les suspects avec une reconnaissance faciale basée sur l’IA. Si les gouvernements et les entreprises continuent de signaler qu’ils utiliseraient des systèmes invasifs, les start-up ambitieuses et sans scrupules trouveront de nouvelles façons inventives de collecter plus de données que jamais pour répondre à cette demande.
8. N’oubliez pas: l’IA sera biaisée
Dans les nouvelles approches de l’utilisation de l’IA dans des circonstances à enjeux élevés, le biais devrait être une préoccupation sérieuse. Le biais dans les modèles d’IA entraîne des estimations biaisées dans différents sous-groupes, tels que les femmes, les minorités raciales ou les personnes handicapées. À son tour, cela conduit souvent à des résultats discriminatoires, car les modèles d’IA sont souvent considérés comme objectifs et neutres.
Bien que les rapports d’enquête et la recherche scientifique aient sensibilisé à de nombreux cas de biais liés à l’IA, il est important de réaliser que le biais lié à l’IA est plus systémique qu’anecdotique. Un sceptique averti en matière d’IA devrait conserver l’hypothèse par défaut selon laquelle les modèles d’IA sont biaisés, sauf preuve contraire.
Un sceptique averti en matière d’IA devrait conserver l’hypothèse par défaut selon laquelle les modèles d’IA sont biaisés, sauf preuve contraire. »
Par exemple, un document préimprimé suggère qu’il est possible d’utiliser des biomarqueurs pour prédire le risque de mortalité des patients COVID-19 de Wuhan. Cela pourrait alors être utilisé pour prioriser les soins pour les personnes les plus à risque – un noble objectif. Cependant, il existe une myriade de sources de biais potentiels dans ce type de prédiction. Les associations biologiques entre la race, le sexe, l’âge et ces biomarqueurs pourraient conduire à des estimations biaisées qui ne représentent pas le risque de mortalité. Des caractéristiques comportementales non mesurées peuvent également entraîner des biais. Il est raisonnable de soupçonner que les antécédents de tabagisme, plus fréquents chez les hommes chinois et un facteur de risque de décès par COVID-19, pourraient biaiser le modèle en surestimant largement le risque de décès chez les hommes.
Surtout pour les modèles impliquant des humains, il y a tellement de sources potentielles de biais qu’ils ne peuvent être écartés sans enquête. Si un modèle d’IA n’a pas de biais documentés et évalués, il devrait accroître la certitude d’un sceptique qu’ils restent cachés, non résolus et pernicieux.
L’avenir des systèmes d’IA est plus prometteur
Bien que cet article adopte une perspective délibérément sceptique, l’impact futur de l’IA sur bon nombre de ces applications est brillant. Par exemple, alors que le diagnostic de COVID-19 avec des tomodensitogrammes est d’une valeur discutable en ce moment, l’impact de l’IA sur l’imagerie médicale est substantiel Les applications émergentes peuvent évaluer la malignité des anomalies tissulaires, étudier les structures squelettiques et réduire le besoin d’envahissement biopsies.
D’autres applications sont très prometteuses, bien qu’il soit trop tôt pour dire si elles auront un impact significatif sur cette pandémie. Par exemple, les médicaments conçus par l’IA commencent tout juste des essais sur l’homme. L’utilisation de l’IA pour résumer des milliers de documents de recherche peut également accélérer les découvertes médicales concernant COVID-19.
L’IA est une technologie largement applicable, mais ses avantages doivent être couverts par une compréhension réaliste de ses limites. À cette fin, l’objectif de cet article n’est pas de dénigrer largement les contributions que l’IA peut apporter, mais plutôt d’encourager un œil critique et perspicace pour les circonstances spécifiques dans lesquelles l’IA peut être significative.
La Brookings Institution est une organisation à but non lucratif dédiée à la recherche indépendante et aux solutions politiques. Sa mission est de mener des recherches indépendantes de haute qualité et, sur la base de ces recherches, de fournir des recommandations innovantes et pratiques aux décideurs et au public. Les conclusions et recommandations de toute publication Brookings sont uniquement celles de son (ses) auteur (s) et ne reflètent pas les vues de l’institution, de sa direction ou de ses autres universitaires.
Microsoft fournit une assistance à l’Initiative Intelligence artificielle et technologie émergente (AIET) de la Brookings Institution. Les résultats, interprétations et conclusions de ce rapport ne sont influencés par aucun don. Brookings reconnaît que la valeur qu’elle fournit réside dans son engagement absolu envers la qualité, l’indépendance et l’impact. Les activités soutenues par ses donateurs reflètent cet engagement.


No Comments, Comment or Ping