banner
Centre d'Information
Vaste expertise de vente et de production

Pourquoi l'intelligence artificielle doit comprendre les conséquences

Sep 13, 2023

Neil Savage est un écrivain indépendant à Lowell, Massachusetts.

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Crédit : Neil Webb

Vous avez un accès complet à cet article via votre institution.

Lorsque Rohit Bhattacharya a commencé son doctorat en informatique, son objectif était de créer un outil qui pourrait aider les médecins à identifier les personnes atteintes de cancer qui répondraient bien à l'immunothérapie. Cette forme de traitement aide le système immunitaire de l'organisme à combattre les tumeurs et fonctionne mieux contre les tumeurs malignes qui produisent des protéines auxquelles les cellules immunitaires peuvent se lier. L'idée de Bhattacharya était de créer des réseaux de neurones capables de profiler la génétique de la tumeur et du système immunitaire d'une personne, puis de prédire quelles personnes seraient susceptibles de bénéficier d'un traitement.

Mais il a découvert que ses algorithmes n'étaient pas à la hauteur de la tâche. Il pouvait identifier des modèles de gènes corrélés à la réponse immunitaire, mais cela ne suffisait pas1. "Je ne pourrais pas dire que ce schéma spécifique de liaison, ou cette expression spécifique de gènes, soit un déterminant causal de la réponse du patient à l'immunothérapie", explique-t-il.

Partie de Nature Outlook : Robotique et intelligence artificielle

Bhattacharya a été bloqué par le dicton séculaire selon lequel la corrélation n'est pas égale à la causalité - une pierre d'achoppement fondamentale de l'intelligence artificielle (IA). Les ordinateurs peuvent être formés pour repérer des modèles dans les données, même des modèles qui sont si subtils que les humains pourraient les manquer. Et les ordinateurs peuvent utiliser ces modèles pour faire des prédictions - par exemple, qu'une tache sur une radiographie pulmonaire indique une tumeur2. Mais lorsqu'il s'agit de cause à effet, les machines sont généralement à perte. Ils manquent d'une compréhension de bon sens de la façon dont le monde fonctionne que les gens ont juste d'y vivre. Les programmes d'IA entraînés à détecter une maladie sur une radiographie pulmonaire, par exemple, se sont parfois trompés en se concentrant sur les marques utilisées pour étiqueter le côté droit de l'image3. Il est évident, pour une personne du moins, qu'il n'y a pas de relation causale entre le style et l'emplacement de la lettre « R » sur une radiographie et les signes de maladie pulmonaire. Mais sans cette compréhension, toute différence dans la façon dont ces marquages ​​sont dessinés ou positionnés pourrait suffire à orienter une machine sur la mauvaise voie.

Pour que les ordinateurs puissent effectuer n'importe quel type de prise de décision, ils auront besoin d'une compréhension de la causalité, explique Murat Kocaoglu, ingénieur électricien à l'Université Purdue de West Lafayette, Indiana. "Tout ce qui va au-delà de la prédiction nécessite une sorte de compréhension causale", dit-il. "Si vous voulez planifier quelque chose, si vous voulez trouver la meilleure politique, vous avez besoin d'une sorte de module de raisonnement causal."

L'intégration de modèles de cause à effet dans les algorithmes d'apprentissage automatique pourrait également aider les machines autonomes mobiles à prendre des décisions sur la façon dont elles naviguent dans le monde. "Si vous êtes un robot, vous voulez savoir ce qui se passera lorsque vous ferez un pas ici avec cet angle ou cet angle, ou si vous poussez un objet", explique Kocaoglu.

Dans le cas de Bhattacharya, il était possible que certains des gènes mis en évidence par le système soient responsables d'une meilleure réponse au traitement. Mais un manque de compréhension de la causalité signifiait qu'il était également possible que le traitement affecte l'expression du gène - ou qu'un autre facteur caché influence les deux. La solution potentielle à ce problème réside dans ce que l'on appelle l'inférence causale - une manière formelle et mathématique de déterminer si une variable affecte une autre.

L'informaticien Rohit Bhattacharya (à l'arrière) et son équipe du Williams College de Williamstown, dans le Massachusetts, discutent de l'adaptation de l'apprentissage automatique à l'inférence causale. Crédit : Mark Hopkins

L'inférence causale est utilisée depuis longtemps par les économistes et les épidémiologistes pour tester leurs idées sur la causalité. Le prix Nobel de sciences économiques 2021 a été attribué à trois chercheurs qui ont utilisé l'inférence causale pour poser des questions telles que si un salaire minimum plus élevé entraîne une baisse de l'emploi ou quel effet une année de scolarité supplémentaire a sur les revenus futurs. Aujourd'hui, Bhattacharya fait partie d'un nombre croissant d'informaticiens qui s'efforcent de fusionner la causalité avec l'IA pour donner aux machines la capacité de s'attaquer à ces questions, les aidant à prendre de meilleures décisions, à apprendre plus efficacement et à s'adapter au changement.

Une notion de cause à effet aide à guider les humains à travers le monde. « Avoir un modèle causal du monde, même imparfait — parce que c'est ce que nous avons — nous permet de prendre des décisions et des prédictions plus robustes », explique Yoshua Bengio, un informaticien qui dirige Mila – Institut québécois d'intelligence artificielle, une collaboration entre quatre universités à Montréal, Canada. La compréhension humaine de la causalité soutient des attributs tels que l'imagination et le regret ; donner aux ordinateurs une capacité similaire pourrait transformer leurs capacités.

Les grands succès de l'IA au cours de la dernière décennie - tels que gagner contre des personnes lors de divers jeux compétitifs, identifier le contenu des images et, au cours des dernières années, générer du texte et des images en réponse à des invites écrites - ont été alimentés par l'apprentissage en profondeur. En étudiant des tonnes de données, ces systèmes apprennent comment une chose est en corrélation avec une autre. Ces associations apprises peuvent ensuite être mises à profit. Mais ce n'est que le premier échelon sur l'échelle vers un objectif plus élevé : quelque chose que Judea Pearl, informaticienne et directrice du Cognitive Systems Laboratory de l'Université de Californie à Los Angeles, appelle "compréhension profonde".

En 2011, Pearl a remporté le prix AM Turing, souvent appelé le prix Nobel d'informatique, pour son travail de développement d'un calcul permettant un raisonnement probabiliste et causal. Il décrit une hiérarchie de raisonnement à trois niveaux4. Le niveau de base est « voir », ou la capacité de faire des associations entre les choses. Les systèmes d'IA d'aujourd'hui sont extrêmement bons dans ce domaine. Pearl fait référence au niveau suivant en tant que «faire» - apporter un changement à quelque chose et noter ce qui se passe. C'est là que la causalité entre en jeu.

Un ordinateur peut développer un modèle causal en examinant les interventions : comment les changements d'une variable affectent une autre. Au lieu de créer un modèle statistique de la relation entre les variables, comme dans l'IA actuelle, l'ordinateur en crée plusieurs. Dans chacun, la relation entre les variables reste la même, mais les valeurs d'une ou plusieurs des variables sont modifiées. Cette modification pourrait conduire à un nouveau résultat. Tout cela peut être évalué en utilisant les mathématiques des probabilités et des statistiques. "La façon dont j'y pense est que l'inférence causale consiste simplement à mathématiser la façon dont les humains prennent des décisions", déclare Bhattacharya.

Yoshua Bengio (devant) dirige Mila – Institut québécois d'intelligence artificielle à Montréal, Canada.Crédit : Mila-Institut québécois d'IA

Bengio, qui a remporté le prix AM Turing en 2018 pour ses travaux sur l'apprentissage en profondeur, et ses étudiants ont formé un réseau de neurones pour générer des graphes causaux5 - une façon de décrire les relations causales. Dans leur forme la plus simple, si une variable entraîne une autre variable, elle peut être indiquée par une flèche allant de l'une à l'autre. Si le sens de la causalité est inversé, la flèche l'est aussi. Et si les deux ne sont pas liés, il n'y aura pas de flèche les reliant. Le réseau de neurones de Bengio est conçu pour générer aléatoirement l'un de ces graphiques, puis vérifier sa compatibilité avec un ensemble de données donné. Les graphiques qui correspondent mieux aux données sont plus susceptibles d'être précis, de sorte que le réseau de neurones apprend à générer plus de graphiques similaires à ceux-ci, en recherchant celui qui correspond le mieux aux données.

Cette approche s'apparente à la façon dont les gens élaborent quelque chose : les gens génèrent des relations causales possibles et supposent que celles qui correspondent le mieux à une observation sont les plus proches de la vérité. Regarder un verre se briser lorsqu'il tombe sur du béton, par exemple, peut amener une personne à penser que l'impact sur une surface dure provoque la rupture du verre. Faire tomber d'autres objets sur du béton ou frapper un verre sur un tapis moelleux, à partir de différentes hauteurs, permet à une personne d'affiner son modèle de relation et de mieux prédire le résultat de futurs échappés.

L'un des principaux avantages du raisonnement causal est qu'il pourrait rendre l'IA plus apte à faire face à des circonstances changeantes. Les systèmes d'IA existants qui fondent leurs prédictions uniquement sur des associations dans les données sont extrêmement vulnérables à tout changement dans la manière dont ces variables sont liées. Lorsque la distribution statistique des relations apprises change - que ce soit en raison du passage du temps, d'actions humaines ou d'un autre facteur externe - l'IA deviendra moins précise.

Inscrivez-vous à la newsletter de Nature sur la robotique et l'IA

Par exemple, Bengio pourrait former une voiture autonome sur ses routes locales à Montréal, et l'IA pourrait devenir efficace pour conduire le véhicule en toute sécurité. Mais exportez ce même système à Londres, et il tomberait immédiatement en panne pour une raison simple : les voitures sont conduites à droite au Canada et à gauche au Royaume-Uni, de sorte que certaines des relations que l'IA avait apprises seraient inversées. Il pourrait recycler l'IA à partir de zéro en utilisant des données de Londres, mais cela prendrait du temps et signifierait que le logiciel ne fonctionnerait plus à Montréal, car son nouveau modèle remplacerait l'ancien.

Un modèle causal, en revanche, permet au système d'apprendre de nombreuses relations possibles. "Au lieu d'avoir un seul ensemble de relations entre toutes les choses que vous pourriez observer, vous en avez un nombre infini", explique Bengio. "Vous disposez d'un modèle qui tient compte de ce qui pourrait se produire en cas de modification de l'une des variables de l'environnement."

Les humains fonctionnent avec un tel modèle causal et peuvent donc s'adapter rapidement aux changements. Un conducteur canadien pourrait voler jusqu'à Londres et, après avoir pris quelques instants pour s'adapter, pourrait parfaitement bien conduire sur le côté gauche de la route. Le code de la route britannique signifie que, contrairement au Canada, les virages à droite impliquent de traverser la circulation, mais cela n'a aucun effet sur ce qui se passe lorsque le conducteur tourne le volant ou sur la façon dont les pneus interagissent avec la route. "Tout ce que nous savons sur le monde est essentiellement le même", déclare Bengio. La modélisation causale permet à un système d'identifier les effets d'une intervention et d'en tenir compte dans sa compréhension existante du monde, plutôt que d'avoir à tout réapprendre à partir de zéro.

Judea Pearl, directrice du Cognitive Systems Laboratory de l'Université de Californie à Los Angeles, a remporté le prix AM Turing 2011.Crédit : UCLA Samueli School of Engineering

Cette capacité à faire face aux changements sans supprimer tout ce que nous savons permet également aux humains de donner un sens à des situations qui ne sont pas réelles, comme les films fantastiques. "Notre cerveau est capable de nous projeter dans un environnement inventé dans lequel certaines choses ont changé", explique Bengio. "Les lois de la physique sont différentes, ou il y a des monstres, mais le reste est pareil."

La capacité d'imagination est au sommet de la hiérarchie du raisonnement causal de Pearl. La clé ici, dit Bhattacharya, est de spéculer sur les résultats des actions non prises.

Bhattacharya aime expliquer de tels contrefactuels à ses étudiants en leur lisant "The Road Not Taken" de Robert Frost. Dans ce poème, le narrateur parle d'avoir à choisir entre deux chemins à travers les bois et exprime le regret de ne pas savoir où mène l'autre chemin. "Il imagine à quoi ressemblerait sa vie s'il empruntait un chemin plutôt qu'un autre", a déclaré Bhattacharya. C'est ce que les informaticiens aimeraient reproduire avec des machines capables d'inférence causale : la capacité de poser des questions « et si ».

Imaginer si un résultat aurait été meilleur ou pire si nous avions pris une mesure différente est un moyen important pour les humains d'apprendre. Bhattacharya dit qu'il serait utile d'imprégner l'IA d'une capacité similaire pour ce que l'on appelle le "regret contrefactuel". La machine pouvait exécuter des scénarios sur la base de choix qu'elle n'avait pas faits et quantifier s'il aurait mieux valu en faire un autre. Certains scientifiques ont déjà utilisé le regret contrefactuel pour aider un ordinateur à améliorer son jeu de poker6.

La possibilité d'imaginer différents scénarios pourrait également aider à surmonter certaines des limites de l'IA existante, comme la difficulté de réagir à des événements rares. Par définition, dit Bengio, les événements rares n'apparaissent que peu, voire pas du tout, dans les données sur lesquelles un système est formé, de sorte que l'IA ne peut pas en savoir plus. Une personne conduisant une voiture peut imaginer un événement qu'elle n'a jamais vu, comme un petit avion atterrissant sur la route, et utiliser sa compréhension du fonctionnement des choses pour concevoir des stratégies potentielles pour faire face à cette éventualité spécifique. Cependant, une voiture autonome sans capacité de raisonnement causal pourrait, au mieux, donner par défaut une réponse générique à un objet sur la route. En utilisant des contrefactuels pour apprendre les règles de fonctionnement des choses, les voitures pourraient être mieux préparées pour les événements rares. Travailler à partir de règles causales plutôt qu'une liste d'exemples précédents rend finalement le système plus polyvalent.

L'utilisation de la causalité pour programmer l'imagination dans un ordinateur pourrait même conduire à la création d'un scientifique automatisé. Lors d'un sommet en ligne de 2021 parrainé par Microsoft Research, Pearl a suggéré qu'un tel système pourrait générer une hypothèse, choisir la meilleure observation pour tester cette hypothèse, puis décider quelle expérience fournirait cette observation.

À l'heure actuelle, cependant, cela reste un moyen de s'en sortir. La théorie et les mathématiques de base de l'inférence causale sont bien établies, mais les méthodes permettant à l'IA de réaliser des interventions et des contrefactuels en sont encore à un stade précoce. "Il s'agit encore de recherches très fondamentales", déclare Bengio. "Nous en sommes au stade de la définition des algorithmes de manière très basique." Une fois que les chercheurs auront compris ces principes fondamentaux, les algorithmes devront alors être optimisés pour fonctionner efficacement. On ne sait pas combien de temps tout cela prendra. "J'ai l'impression que nous avons tous les outils conceptuels pour résoudre ce problème et ce n'est qu'une question de quelques années, mais cela prend généralement plus de temps que prévu", déclare Bengio. "Cela pourrait prendre des décennies à la place."

Plus de Nature Outlooks

Bhattacharya pense que les chercheurs devraient s'inspirer de l'apprentissage automatique, dont la prolifération rapide est en partie due aux programmeurs développant des logiciels open source qui donnent aux autres l'accès aux outils de base pour écrire des algorithmes. Des outils équivalents pour l'inférence causale pourraient avoir un effet similaire. "Il y a eu beaucoup de développements passionnants ces dernières années", a déclaré Bhattacharya, y compris certains packages open source du géant de la technologie Microsoft et de l'Université Carnegie Mellon de Pittsburgh, en Pennsylvanie. Lui et ses collègues ont également développé un module causal open source qu'ils appellent Ananke. Mais ces progiciels restent un travail en cours.

Bhattacharya aimerait également voir le concept d'inférence causale introduit aux premiers stades de l'enseignement de l'informatique. À l'heure actuelle, dit-il, le sujet est enseigné principalement au niveau universitaire, alors que l'apprentissage automatique est courant dans la formation de premier cycle. "Le raisonnement causal est suffisamment fondamental pour que j'espère le voir également introduit sous une forme simplifiée au niveau secondaire", dit-il.

Si ces chercheurs réussissent à intégrer la causalité dans l'informatique, cela pourrait amener l'IA à un tout nouveau niveau de sophistication. Les robots pourraient naviguer plus facilement dans le monde. Les voitures autonomes pourraient devenir plus fiables. Les programmes d'évaluation de l'activité des gènes pourraient conduire à une nouvelle compréhension des mécanismes biologiques, qui à leur tour pourraient permettre le développement de médicaments nouveaux et meilleurs. "Cela pourrait transformer la médecine", dit Bengio.

Même quelque chose comme ChatGPT, le générateur de langage naturel populaire qui produit un texte qui se lit comme s'il aurait pu être écrit par un humain, pourrait bénéficier de l'incorporation de la causalité. À l'heure actuelle, l'algorithme se trahit en produisant une prose clairement écrite qui se contredit et va à l'encontre de ce que nous savons être vrai sur le monde. Avec la causalité, ChatGPT pourrait construire un plan cohérent pour ce qu'il essayait de dire et s'assurer qu'il était cohérent avec les faits tels que nous les connaissons.

Lorsqu'on lui a demandé si cela mettrait les écrivains en faillite, Bengio a répondu que cela pourrait prendre un certain temps. "Mais que diriez-vous de perdre votre emploi dans dix ans, mais vous êtes sauvé du cancer et de la maladie d'Alzheimer", dit-il. "C'est une bonne affaire."

doi : https://doi.org/10.1038/d41586-023-00577-1

Cet article fait partie de Nature Outlook: Robotics and artificial intelligence, un supplément éditorial indépendant produit avec le soutien financier de tiers. À propos de ce contenu.

Shao, XM et al. Cancer Immunol. Résolution 8, 396-408 (2020).

Article PubMed Google Scholar

Chiu, H.-Y., Chao, H.-S. & Chen, Y.-M. Cancers 14, 1370 (2022).

Article PubMed Google Scholar

DeGrave, AJ, Janizek, JD & Lee, S.-I. NatureMach. Renseignement. 3, 610–619 (2021).

Article Google Scholar

Perle, J. Commun. ACM 62, 54–60 (2019).

Article Google Scholar

Deleu, T. et al. Préimpression sur https://arxiv.org/abs/2202.13903 (2022).

Brown, N., Lerer, A., Gross, S. & Sandholm, T. Préimpression sur https://arxiv.org/abs/1811.00164 (2019).

Télécharger les références

Abandonné : le coût humain de l'échec des neurotechnologies

Des robots bioinspirés marchent, nagent, glissent et volent

Apprendre tout au long de la vie

Apprendre aux robots à toucher

Pénétrer dans la boîte noire de l'intelligence artificielle

Les robots médicaux miniatures sortent de la science-fiction

ChatGPT : consignes de signalement standard pour une utilisation responsable

Correspondance 06 JUIN 23

Six conseils pour mieux coder avec ChatGPT

Caractéristique technologique 05 JUIN 23

L'apprentissage par transfert permet des prédictions en biologie des réseaux

Article 31 23 MAI

Six conseils pour mieux coder avec ChatGPT

Caractéristique technologique 05 JUIN 23

Vers l'apprentissage automatique quantique

Coup de projecteur 24 MAI 23

Ordinateurs quantiques : à quoi servent-ils ?

Coup de projecteur 24 MAI 23

Six conseils pour mieux coder avec ChatGPT

Caractéristique technologique 05 JUIN 23

Réécrire le plan de l'ordinateur quantique

Perspectives 24 MAI 23

Commercialiser les ordinateurs quantiques étape par étape

Perspectives 24 MAI 23

Basé sur les efforts conjoints de tout le personnel et des étudiants ainsi que sur le soutien substantiel de tous les secteurs de la société.

Pékin, Chine

Collège des sciences de l'eau, Université normale de Pékin

L'Agence de la santé animale et végétale (APHA) est une agence exécutive du ministère de l'Environnement, de l'Alimentation et des Affaires rurales, et travaille au nom de la S

Addlestone, Surrey

Agence de la santé animale et végétale

Une organisation de recherche interdisciplinaire où la science et la technologie de pointe conduisent à la découverte d'Insights percutants

Nouvelle zone de Pudong, Shanghai

Institut BeiGene

Située dans la partie orientale de Nanjing, l'Université forestière de Nanjing est une université polyvalente.

Nankin, Jiangsu (CN)

Université forestière de Nanjing (NFU)

Représentant DMPK/PD dans des équipes d'experts multifonctionnelles pour l'évaluation de nouvelles entités chimiques

Canton, Guangdong, Chine

BeiGene Ltd.