Le problème profond d’IA

Modélisé sur le cerveau humain, l’apprentissage en profondeur est opaque

Public Domain Archive

Source: Archives du domaine public

L’intelligence artificielle est modélisée dans une certaine mesure sur le cerveau humain; et cette approche pose un grave problème. L’apprentissage automatique est un sous-ensemble de l’intelligence artificielle (IA) où les programmes informatiques apprennent automatiquement à partir de données sans programmation explicite. Inspiré en partie par la biologie humaine, l’apprentissage en profondeur est une méthode d’apprentissage automatique qui déploie des couches de neurones artificiels, appelés nœuds, dans un cerveau artificiel appelé réseau neuronal. Les neuroscientifiques et les psychologues doivent encore comprendre comment fonctionne le cerveau humain. De même, l’apprentissage en profondeur pose un gros problème. les scientifiques ne savent pas exactement comment l’apprentissage en profondeur atteint ses décisions. Dans les deux cas, la complexité est à l’origine du manque de transparence.

Le cerveau humain est complexe. les chercheurs estiment qu’un cerveau humain mâle adulte possède 86 milliards de neurones en moyenne [1]. Les manuels de neuroanatomie humaine évaluent généralement le nombre à plus de 100 milliards de neurones. Semblable au cerveau humain, l’apprentissage en profondeur consiste en des neurones ou nœuds de traitement densément interconnectés, disposés en plusieurs couches. L’apprentissage en profondeur ne nécessite pas de programmation explicite, car il est conçu pour apprendre de grandes quantités de données en entrée. Par exemple, le programme d’apprentissage approfondi de Google a appris à reconnaître des images de chats après avoir reçu 10 millions de miniatures de vidéos YouTube sans avoir à coder en dur ou étiqueter les images [2].

Pour comprendre pourquoi l’apprentissage en profondeur est extrêmement complexe, il faut comprendre le processus fonctionnel lui-même. Les réseaux de neurones trouvent des modèles dans les ensembles de données volumineuses, puis développent la capacité de conceptualiser et de généraliser. De grandes quantités de données sont introduites dans les réseaux neuronaux artificiels. La première couche de noeuds traite les données et se déplace ensuite vers les couches de noeuds suivantes jusqu’à ce que la dernière couche soit atteinte et qu’une seule décision soit prise. Dans le traitement, les poids sont calculés mathématiquement pour les nœuds et pour la force de la connexion entre les nœuds, comme les synapses du cerveau. Le réseau neuronal crée un modèle avec des milliards, voire des milliards, de paramètres basés sur des connexions complexes entre les nœuds. C’est cette complexité inhérente au modèle qui rend impossible de déterminer exactement comment l’apprentissage en profondeur produit ses résultats.

L’opacité de l’apprentissage en profondeur devient problématique dans plusieurs domaines de l’éthique, du droit et du contrôle de la qualité. Par exemple, l’industrie automobile s’oriente rapidement vers des véhicules autonomes utilisant une technologie d’apprentissage en profondeur. En cas d’accident, il n’y a pas de moyen définitif pour comprendre le raisonnement derrière les décisions prises par les réseaux de neurones dans un véhicule autonome. Qui est en faute dans de tels cas? La question pose un dilemme éthique et juridique pour toutes les parties prenantes, y compris les blessés, les passagers, les compagnies d’assurance et les constructeurs automobiles. Comment un consommateur évalue-t-il la qualité d’un véhicule autonome sans comprendre le processus de prise de décision du conducteur?

Un autre exemple est le déploiement de l’apprentissage en profondeur pour l’analyse d’images dans les soins de santé pour certains cancers et la rétinopathie diabétique [6]. Feriez-vous confiance au diagnostic de maladie d’un modèle d’apprentissage en profondeur sans savoir pourquoi il a été fabriqué? Un médecin humain peut expliquer son raisonnement et sa logique lorsqu’il est interrogé par le patient. Ce n’est pas le cas avec l’apprentissage en profondeur.

L’ampleur du problème de transparence d’AI ne cesse de croître et ne deviendra plus un problème à l’avenir à mesure que l’automatisation augmentera. L’augmentation récente des percées commerciales et de la recherche en IA est due en grande partie à l’augmentation de la puissance de calcul via des accélérateurs graphiques pour un traitement parallèle massif, contre une unité centrale qui traite les informations en série et séquentiellement [5]. L’informatique en nuage décentralisée et la disponibilité d’ensembles de données volumineuses contribuent également à l’essor de l’IA. L’apprentissage automatique est utilisé pour la reconnaissance vocale, les véhicules autonomes, le traitement des images, la reconnaissance de l’écriture manuscrite, etc. Le niveau de puissance et de sophistication de l’IA a été démontré lorsque le programme AlphaGo de Google DeepMind, un modèle d’apprentissage en profondeur, a vaincu les meilleurs joueurs humains du monde [3]. Les algorithmes d’apprentissage en profondeur font partie de la technologie de reconnaissance vocale d’Apple, Microsoft, Amazon et Google [4]. L’IA est déployée dans de nombreux secteurs à l’échelle mondiale, soulignant ainsi l’importance de traiter son opacité.

Les scientifiques et les chercheurs travaillent actuellement à démystifier ce que l’on appelle souvent la boîte noire de l’IA; personne ne sait exactement comment l’apprentissage profond parvient à ses décisions. L’ironie est que l’intelligence artificielle est modelée sur le cerveau et hérite ainsi de la complexité inconnaissable de la cognition humaine.

Les références

1. Frederico Azevedo et al., “Des nombres égaux de cellules neuronales et non neuronales font du cerveau humain un cerveau de primate mis à l’échelle isométriquement.” Journal of Comparative Neurology . 2009 10 avril.

2. Clark, Liat. “Le cerveau artificiel de Google apprend à trouver des vidéos de chat.” Wired UK . 06.26.12.

3. Gibney, Elizabeth. “Ce que fera ensuite l’algorithme gagnant de Google Go.” Nature . 15 mars 2016.

4. Parloff, Roger. “Pourquoi l’apprentissage en profondeur change soudainement votre vie.” Fortune . 28 septembre 2016.

5. NVIDIA. “Qu’est-ce que l’informatique accélérée par le GPU?” Extrait le 20 février 2018 de http://www.nvidia.com/object/what-is-gpu-computing.html

6. Weidman Metis, Seth. “4 percées d’apprentissage approfondies que les chefs d’entreprise doivent comprendre”. VentureBeat . 23 janvier 2018.