La vie émotionnelle des machines intelligentes

Quelle est la question la plus fréquemment posée à propos d’Emotion AI?

Richard Yonck/Shutterstock

Source: Richard Yonck / Shutterstock

Cela fait un peu plus d’un an depuis la publication de mon livre, Heart of the Machine , un examen approfondi des répercussions techniques et sociales potentielles de l’informatique affective, une branche de l’informatique axée sur des systèmes capables de lire, interpréter, répliquer et interagir autrement avec nos émotions. Au cours de cette période, j’ai eu l’occasion de parler de cette technologie émergente passionnante lors de festivals, de lectures publiques, de conférences, de groupes de réflexion et, bien sûr, dans les librairies. Dans toute cette interaction avec les lecteurs et le public, il y a eu une question qui a été de loin la plus souvent posée: “Cela signifiet-il que ces appareils, ordinateurs ou robots peuvent ressentir des émotions comme nous?”

Bien que cela soit explicitement abordé dans le livre, je réponds toujours sans équivoque: “Non, ce n’est pas le cas”. Si le temps le permet, je lui expliquerai même si ces machines et programmes À l’avenir, ce ne sera pas la même chose pour les gens pour plusieurs raisons très importantes. Néanmoins, je trouve intriguant et même un peu éclairant la psyché humaine que cette question est la première sur les lèvres de tant de personnes.

Est-ce que nous sommes soucieux de maintenir notre unicité en tant qu’êtres émotionnellement intelligents? Sommes-nous préoccupés par le fait que la nature “irrationnelle” de l’émotion pourrait conduire à une folie des IA? Avons-nous peur de l’idée que les machines pourraient un jour interagir avec nous sur les niveaux les plus personnels? Ou peut-être que c’est l’inverse? Est-il possible, même probable, que beaucoup d’entre nous souhaitent réellement voir le développement de machines émotionnelles? Est-ce que certains d’entre nous souhaitent secrètement cela, cherchant un lien que beaucoup de gens considèrent comme absent de leur vie?

Cela vaut la peine de l’explorer un peu plus près. Tout d’abord, la recherche en IA a longtemps eu pour objectif de réaliser quelque chose d’équivalent à l’intelligence humaine – ce que l’on appelle souvent l’intelligence artificielle forte ou l’intelligence générale artificielle (en abrégé AGI). Mais à ce jour, la grande majorité des succès ont été réalisés dans des applications beaucoup plus limitées – généralement désignées sous le nom d’IA étroite. Commandes vocales, reconnaissance faciale, jeu d’échecs, poker, même des véhicules autonomes – ce sont toutes des applications étroitement ciblées de l’intelligence artificielle. Il y a peu de bon sens ou de connaissances générales, même au sein d’un programme aussi performant que la version de Watson qui a vaincu Jennings et Rutter, les champions de l’histoire du jeu, Jeopardy . Tous ces programmes sont limités à la performance dans un domaine très spécifique et s’ils s’appliquent au-delà des limites de ce domaine, ils se brisent ou échouent. C’est ce que l’on appelle en programmation informatique la fragilité des logiciels .

Curieusement, les recherches ont montré qu’une grande partie de l’intellect humain doit sa souplesse de pensée et sa capacité à prendre des décisions au fait que nous sommes des êtres émotionnels. Notre habileté à déterminer où concentrer nos efforts à court et à long terme, notre faculté d’abattre une surabondance de détails et de données, notre capacité à nous adapter à des circonstances changeantes à la volée, sont toutes guidées et modérées par nos valeurs. les émotions placent sur ce moment et cette situation.

    La série HBO, Westworld, en est un bon exemple. Bien que le spectacle soit une fiction, il fait un excellent travail en soulignant l’importance de l’émotion dans l’intellect de ses hôtes Android. Ce n’est qu’après que des connexions émotionnelles ont été établies que ces hôtes deviennent indissociables des hôtes humains, développant une conscience et une volonté de vivre féroce. En l’absence de nos émotions, nous serions très proches de ces hôtes, véritables automates, beaucoup plus fragiles dans nos actions quotidiennes et nos décisions. Bien sûr, sans nos émotions, il est également très improbable que nous ayons survécu aussi longtemps en tant qu’espèce.

    Donc, étant donné tout cela, est-il possible que l’instauration de l’équivalent des émotions dans les IA puisse aider à résoudre certains des problèmes précédemment décrits? Peut-être, bien que ce soit un grand pas en avant, ainsi qu’une idée difficile à prouver sans la mettre en œuvre et la tester. Mais cela soulève une autre considération très importante: comment allons-nous mettre en œuvre une telle stratégie? Malgré l’incroyable rapidité et la capacité de l’intelligence de la machine, elle repose sur un substrat totalement différent de l’intelligence humaine. Cela signifie que vous et moi venons d’une base biologique à partir des acides aminés qui mènent aux protéines, cellules, organes, systèmes et éventuellement à un centre de commandement cognitif similaire appelé cerveau, avec tous ses neurones, dendrites, axones, ganglions et des centaines de cellules, cortex et processus apparentés. Les ordinateurs et les IA partent du silicium “dopé” ou d’autres matériaux semi-conducteurs. Celles-ci sont progressivement organisées en transistors et autres éléments qui sont à leur tour devenus des circuits, des registres, des bus, de la mémoire et des processeurs actionnés par des routines logicielles, des modules, des API et des interfaces utilisateur. De telles machines naviguent et manipulent des bits contrairement à l’utilisation par notre corps de molécules, d’hormones, de neuropeptides et de potentiels électriques. Ainsi, alors que nous pouvons nous efforcer d’imiter les processus biologiques avec le silicium, il est peu probable que nous y parvenions directement. En réalité, la majorité de nos succès antérieurs en IA dépendaient de la reconnaissance de cette limitation. Dans presque tous ces cas, nous avons adapté notre ingénierie pour réaliser des tâches grâce à des méthodes plus adaptées aux outils et aux matériaux disponibles.

    Cela ne signifie pas que l’inspiration de la nature – ce que l’on appelle la biomimétisme – ne peut être utile. Mais cette approche a ses limites, en particulier lorsqu’elle est appliquée à différents substrats. Par exemple, alors que les premiers dessins d’avions s’inspiraient d’oiseaux, si les frères Wright avaient insisté pour imiter fidèlement le vol aviaire, ils n’auraient jamais décollé. Au lieu de cela, ils ont travaillé avec les matériaux à leur disposition à l’époque pour manipuler des forces plus générales, telles que la portance, la traînée et la poussée, afin de les amener à décoller.

    De telles différences limitent ce que nous pouvons faire pour émuler une émotion dans un substrat non biologique. Peut-être le plus important, bien qu’il existe des composants cognitifs importants qui s’intègrent à notre expérience des émotions, ceux-ci proviennent principalement du système endocrinien de notre corps, le système de messagerie chimique qui dirige tant de comportement animal. De toute évidence, les ordinateurs n’ont pas de corps et les robots n’ont pas d’hormones qui s’activent en réponse aux conditions environnementales et situationnelles. Les systèmes basés sur des règles peuvent et ont été conçus pour imiter cette caractéristique de la biologie, mais là encore, ils sont beaucoup plus fragiles que les systèmes de messagerie biologique actuels.

    Cela ne veut pas dire que la tâche est impossible. Peut-être que certains types de réseaux neuronaux, tels que les réseaux d’adversaires génératifs (GAN), pourraient un jour être formés pour imiter les déclencheurs et les comportements d’un système endocrinien? Je ne le sais pas avec certitude, même si je soupçonne que quelque chose comme cela pourrait être faisable à temps. Néanmoins, ceux-ci seraient encore très différents des messagers chimiques sur lesquels les humains comptent et ne seraient donc que des approximations de la façon dont notre propre esprit et notre corps réagissent aux conditions externes et internes.

    Il y a beaucoup d’autres raisons, l’intelligence de la machine ne sera jamais la même que l’intelligence humaine, même si elle parvient à atteindre des niveaux humains ou même à la dépasser. Entre-temps, il reste des obstacles considérables à surmonter avant que ce jour n’arrive, peut-être vers le milieu du siècle. (Il s’agit du consensus médian de plusieurs enquêtes sur les chercheurs en IA, bien que vous puissiez trouver des opinions qui vont de cinq ans à l’avenir à jamais.)

    Est-ce que les émotions seront nécessaires pour que l’IA dépasse un certain niveau d’intelligence générale? Je pense que cela est probable, même si de nombreux autres défis devront également être surmontés. Mais peut-être plus important encore, la modélisation d’un aspect de l’intelligence machine sur des systèmes émotionnels centrés sur l’homme peut éventuellement permettre à ces systèmes de partager des valeurs similaires aux nôtres. Outre les diverses préoccupations concernant les IA super-intelligentes ou peu amicales ou indifférentes, ceci est extrêmement important car nous allons développer ces machines pour contrôler les systèmes de plus en plus complexes dans notre monde en évolution rapide. Cette stratégie serait très dans notre intérêt. Avec une fréquence croissante, il n’y aura pas de temps pour l’intervention humaine lorsque notre infrastructure industrielle et électronique sera menacée à l’avenir. Pour cette raison, nous serons obligés de contrôler de plus en plus nos machines afin de suivre le rythme et d’avoir confiance en eux. Nous devons faire plus qu’espérer qu’un système qui prend des décisions à la volée sera conforme à nos propres priorités, que ce système pilote un avion à réaction ou exploite une raffinerie chimique hautement toxique.

    Donc, pour réitérer: Non, les machines ne connaîtront pas les émotions comme nous le faisons, pas pendant très longtemps, si jamais. Mais à plus court terme, le développement de méthodes pour émuler les émotions humaines dans les IA peut présenter des avantages considérables, conduisant à des machines intelligentes capables de ressentir, du moins un peu comme nous. Et qui sait? Si nous le faisons assez bien, peut-être dans une décennie ou deux, certains d’entre eux pourraient même être nos nouveaux meilleurs amis.

    Les références

    Bostrom, N. Surintelligence. Chemins, dangers, stratégies . Oxford University Press. 2014

    Damasio, l’erreur de A. Descartes: l’émotion, la raison et le cerveau humain , Putnam. 1994.

    Yonck, R. Cœur de la machine: notre avenir dans un monde d’intelligence émotionnelle artificielle. Arcade Publishing, NY. 2017.

    Yonck, R. ” Vers une métrique standard de l’intelligence mécanique”; World Future Review . 4: 61-70. Mai 2012.