L’intelligence artificielle est-elle antifragile?

Le potentiel iatrogène de l’intervention humaine en intelligence artificielle

istockphoto

Source: istockphoto

Nous sommes au cœur de la Révolution artificielle de l’intelligence artificielle (AIR), prochaine grande étape de l’histoire de l’innovation technologique. L’intelligence artificielle (IA) gagne du terrain, non seulement dans la recherche scientifique, mais aussi dans les domaines des affaires, de la finance, de la consommation, de l’art, de la santé, de l’esport, de la culture pop et de la géopolitique. Alors que l’IA devient de plus en plus omniprésente, il est important d’examiner à un niveau macro si l’IA gagne du désordre. Antifragile est un terme et un concept mis en avant par Nassim Nicholas Taleb, un ancien trader quantitatif et autoproclamé «flâneur» devenu auteur du best seller du New York Times du film «Le Cygne noir: l’impact du très improbable». “Exactement le contraire de fragile” qui est “au-delà de la résilience ou de la robustesse” dans “Antifragile: Des choses qui gagnent du désordre”. Selon Taleb, les choses antifragiles non seulement “gagnent du chaos”, mais aussi “en ont besoin pour survivre et prospérer . ”Est-ce que l’IA est antifragile? La réponse peut ne pas être aussi intuitive qu’il y paraît.

Les récents progrès de l’IA sont en grande partie dus à l’amélioration des capacités de reconnaissance des formes via l’apprentissage en profondeur, un sous-ensemble de l’apprentissage automatique, méthode de l’IA ne nécessitant pas de programmation explicite. L’apprentissage est réalisé en introduisant des ensembles de données via deux ou plusieurs couches de traitement non linéaire. Plus le volume et le débit de traitement des données sont élevés, plus l’ordinateur apprend rapidement.

Un traitement plus rapide est obtenu principalement grâce aux capacités de traitement en parallèle du GPU (unités de traitement graphiques), par opposition au traitement en série des unités centrales (unité de traitement centrale). Fait intéressant, les jeux sur ordinateur ont permis d’accélérer les progrès en matière d’apprentissage en profondeur et ont donc également joué un rôle dans le boom actuel de l’IA. Les GPU, utilisés à l’origine principalement pour le rendu graphique de jeux informatiques, font désormais partie intégrante de l’architecture d’apprentissage en profondeur. Pour illustrer ce propos, imaginons qu’il existe trois chariots de crème glacée avec des clients alignés et un seul scooper. Dans le traitement en série, le scooper a pour objectif de finir de servir tous les chariots en même temps, en rebondissant entre les chariots, ramassant quelques cônes à la fois avant de réparer le suivant. Dans le traitement parallèle, il existe plusieurs scoopers, au lieu d’un seul. Un client avisé divisera la commande entre les paniers en même temps pour obtenir des résultats plus rapides.

L’apprentissage en profondeur profite d’un volume important et d’un large assortiment de données. L’accès à des ensembles de données volumineux et diversifiés, avec des valeurs aberrantes, est impératif pour minimiser les résultats biaisés ou de qualité médiocre. Boire de la proverbiale base de données n’est pas un facteur de stress pour l’apprentissage en profondeur, mais plutôt un scénario souhaité. L’apprentissage automatique se nourrit du Big Data et met de l’ordre dans le chaos de l’information. L’apprentissage en profondeur de l’IA profite de la diversité des données.

L’antifragilité inhérente à l’apprentissage en profondeur comporte un risque potentiel d’effets indésirables accidentels résultant d’effets iatrogènes résultant d’une mauvaise gestion humaine. Dans «Antifragile», Taleb utilise le terme «iatrogène» à la place de l’expression «effets secondaires indésirables non intentionnels» résultant d’un «interventionnisme naïf». Bien que l’IA soit un système basé sur une machine, il est finalement créé et géré par des humains. Une intervention humaine du jeu de données d’apprentissage en profondeur et des algorithmes d’apprentissage en profondeur de l’IA peut avoir de nombreuses conséquences imprévues. Mettre du pain moisi dans le grille-pain le plus performant au monde donne toujours des toasts sous-optimaux.

Cami Rosso

Source: Cami Rosso

L’adage informatique classique de «Garbage In, Garbage Out» (GIGO) résonne avec un apprentissage en profondeur. Les opérateurs humains décident en grande partie de la taille de l’ensemble de données, de la ou des sources, de la sélection, de la synchronisation, de la fréquence, de l’étiquetage et des remplacements manuels au système d’IA. Les programmeurs humains qui créent les algorithmes d’intelligence artificielle définissent les critères et les mesures utilisés pour le classement, la hiérarchisation, l’association, la classification et le filtrage des systèmes. Lorsqu’un point de données notable est absent, les programmeurs peuvent intervenir en créant des points de données synthétiques. Les programmeurs humains décident des algorithmes de réglage. L’effet iatrogène potentiel d’une intervention humaine peut inclure une sortie biaisée, une reconnaissance de modèle inférieure, des résultats asymétriques, des algorithmes défectueux, des poids inappropriés, des attributs inexacts et des faux positifs ou négatifs. Mettez du pain frais dans le grille-pain, mais ajustez le niveau de chauffage trop haut ou trop bas pendant le processus peut produire des résultats inattendus tels que du pain grillé brûlé ou insuffisamment cuit. Ainsi, bien que l’apprentissage en profondeur de l’IA soit antifragile, c’est le facteur humain qui tend à être fragile.

Cela soulève la question de savoir si l’intelligence artificielle peut être utilisée pour remplacer les points d’intervention humaine – un système d’IA autorégulateur. En théorie, c’est possible. L’intelligence artificielle peut être créée pour produire et gérer d’autres programmes d’intelligence artificielle. Par exemple, des programmes d’IA spécialisés peuvent être créés pour se concentrer sur des tâches telles que la sélection de données pour des ensembles d’entraînement, le marquage de données aberrantes, la prévision de faux positifs ou de négatifs, la suggestion de points de données synthétiques pour des algorithmes et de nombreuses autres fonctions. Imaginez un système d’IA principal qui gère un réseau de programmes spécialisés d’IA. Pendant le traitement, l’IA globale active l’IA spécialisée pour qu’elle exécute la tâche qui nécessitait autrefois une intervention humaine.

Il s’agit d’un système vaste et complexe, et de nombreuses mises en garde s’appliquent à cette approche d’auto-régulation de l’apprentissage en profondeur de l’IA. L’un des attributs les plus inquiétants d’un système d’apprentissage en profondeur en auto-régulation de l’IA est la possibilité accrue de «l’effet papillon» – le concept selon lequel de petites différences dans un système dynamique pourraient avoir des conséquences vastes et étendues. Edward Lorenz, professeur de météorologie au MIT, est le père de la théorie du chaos et de l’effet papillon. Le terme effet de papillon a été mis en avant par Lorenz dans son article «Prévisibilité: le battement des ailes d’un papillon au Brésil déclenche-t-il une tornade au Texas?» [1]. Dans ce cas, la faible intervention humaine lors de la création d’un système d’IA autorégulateur dans l’un de ses programmes de composants modulaires d’IA pourrait entraîner des différences énormes dans la production globale du système d’IA.

Nous avons donc maintenant établi que, même si la technologie d’apprentissage en profondeur de l’IA elle-même semble intrinsèquement antifragile, son talon d’Achille, les effets iatrogènes potentiels de l’intervention humaine, est une source de vulnérabilités et de fragilités systémiques. La création d’un système d’IA autorégulateur est encore plus fragile, compte tenu de sa sensibilité à l’effet papillon de Lorenz. Toute erreur humaine dans la configuration initiale du système dans l’un de ses composants initiaux, qu’il s’agisse de données ou d’algorithmes, pourrait causer des dommages considérables. erreurs de sortie. Les algorithmes d’intelligence artificielle les mieux conçus avec les meilleurs ensembles de données sont toujours sujets à la fragilité humaine. L’IA sera intrinsèquement fragile. La manière dont les humains gèrent le système d’IA déterminera sa robustesse globale et sa tolérance aux pannes. Le succès futur de l’intelligence artificielle dépendra de la capacité de l’homme et de la machine à «apprendre» les meilleures pratiques au fil du temps, en évoluant en symbiose.

Copyright © 2018 Cami Rosso Tous droits réservés.

Références

1. Dizikes, Peter. “Quand l’effet papillon a pris son envol.” MIT Technology Review . 22 février 2011.