Le mythe des machines sensibles

A human-like robot/Shutterstock
Source: Un robot humanoïde / Shutterstock

Certains des plus grands techniciens et scientifiques d'aujourd'hui expriment publiquement leurs inquiétudes sur les scénarios apocalyptiques qui sont susceptibles de se produire à la suite de machines avec des motifs. Parmi les redoutables sont les poids lourds intellectuels comme Stephen Hawking, Elon Musk, et Bill Gates, qui croient tous que les progrès dans le domaine de l'apprentissage automatique produiront bientôt des IA conscients qui cherchent à nous détruire – ou peut-être juste apathétiquement nous disposer, beaucoup comme l'écume se faire oblitérer par un essuie-glace. En fait, le Dr Hawking a déclaré à la BBC: "Le développement de l'intelligence artificielle complète pourrait signifier la fin de la race humaine."

En effet, il y a peu de doute que la future IA sera capable de faire des dégâts significatifs. Par exemple, il est concevable que les robots puissent être programmés pour fonctionner comme des armes autonomes extrêmement dangereuses, contrairement à ce qui a été vu auparavant. En outre, il est facile d'imaginer une application logicielle sans contrainte qui se propage sur Internet, en dépouillant sévèrement notre moyen d'échange le plus efficace et le plus fiable.

Mais ces scénarios sont catégoriquement différents de ceux dans lesquels les machines décident de se retourner contre nous, de nous vaincre, de nous faire leurs esclaves, ou de nous exterminer. À cet égard, nous sommes incontestablement en sécurité. Sur une note plus triste, nous sommes tout aussi peu susceptibles d'avoir un jour des robots qui décident de se lier d'amitié avec nous ou de nous montrer de l'amour sans être spécifiquement poussés par des instructions pour le faire.

C'est parce qu'un tel comportement intentionnel d'une IA nécessiterait sans aucun doute un esprit, puisque l'intentionnalité ne peut surgir que lorsque quelque chose possède ses propres croyances, désirs et motivations. Le type d'intelligence artificielle qui comprend ces caractéristiques est connu dans la communauté scientifique sous le nom de «forte intelligence artificielle». Une IA forte, par définition, devrait posséder toute la gamme des capacités cognitives humaines. Cela inclut la conscience de soi, la sensibilité et la conscience, car ce sont toutes des caractéristiques de la cognition humaine.

D'autre part, "Faible Intelligence Artificielle" fait référence à l'IA non-sensible L'Hypothèse Faible d'IA affirme que nos robots – qui fonctionnent sur des programmes informatiques numériques – ne peuvent avoir aucun état conscient, aucun esprit, aucune conscience subjective et aucune agence. Une telle IA ne peut pas expérimenter le monde qualitativement, et bien qu'ils puissent montrer un comportement apparemment intelligent, elle est pour toujours limitée par le manque d'esprit.

Un manque de reconnaissance de l'importance de cette distinction forte / faible pourrait contribuer aux inquiétudes existentielles de Hawking et de Musk, qui croient tous deux que nous sommes déjà sur la voie du développement de l'IA forte (ou intelligence artificielle générale). Pour eux, il ne s'agit pas de "si", mais de "quand".

Mais le fait est que toute l'IA actuelle est fondamentalement Faible IA, et cela se reflète dans l'absence totale de tout comportement intentionnel des ordinateurs d'aujourd'hui. Bien qu'il existe des robots très complexes et relativement convaincants qui semblent vivants, après un examen plus approfondi, ils se révèlent tous aussi dénués de motivation que la calculatrice de poche commune.

C'est parce que les cerveaux et les ordinateurs fonctionnent très différemment. Les deux calculent, mais un seul comprend – et il y a des raisons très convaincantes de croire que cela ne va pas changer. Il semble qu'il y ait un obstacle plus technique qui s'oppose à ce que l'IA forte devienne une réalité.

Les machines de Turing ne pensent pas

Tous les ordinateurs numériques sont des systèmes binaires. Cela signifie qu'ils stockent et traitent l'information exclusivement en termes de deux états, qui sont représentés par des symboles différents – dans ce cas, 1s et 0s. C'est un fait intéressant de la nature que les chiffres binaires peuvent être utilisés pour représenter la plupart des choses; comme les chiffres, les lettres, les couleurs, les formes, les images et même l'audio avec une précision presque parfaite.

Ce système à deux symboles est le principe fondamental sur lequel repose toute l'informatique numérique. Tout ce que fait un ordinateur consiste à manipuler deux symboles d'une manière ou d'une autre. En tant que tels, ils peuvent être considérés comme un type pratique de machine de Turing – une machine abstraite et hypothétique qui calcule en manipulant des symboles.

Les opérations d'une machine de Turing sont dites «syntaxiques», ce qui signifie qu'elles ne reconnaissent que les symboles et non la signification de ces symboles, c'est-à-dire leur sémantique. Même le mot «reconnaître» est trompeur parce qu'il implique une expérience subjective, alors peut-être est-il préférable de dire simplement que les ordinateurs sont sensibles aux symboles, alors que le cerveau est capable de compréhension sémantique.

Peu importe la rapidité de l'ordinateur, la quantité de mémoire qu'il contient ou la complexité et le haut niveau du langage de programmation. Les champs Watson et Deep Blue de Jeopardy et Chess jouent fondamentalement le même rôle que votre micro-onde. En d'autres termes, une machine de traitement de symboles stricte ne peut jamais être une machine de compréhension de symboles. Le philosophe influent John Searle a habilement décrit ce fait par analogie dans son fameux et controversé "Chinese Room Argument", qui a convaincu les esprits que "la syntaxe n'est pas suffisante pour la sémantique" depuis sa publication en 1980. Et bien que quelques réfutations ésotériques ont été mis de l'avant (le plus commun étant la "réponse des systèmes"), aucun ne parvient à combler le fossé entre la syntaxe et la sémantique. Mais même si on n'est pas totalement convaincu par le Chinese Room Argument, cela ne change rien au fait que les machines de Turing sont des machines à manipuler des symboles et non des machines pensantes, position adoptée par le grand physicien Richard Feynman il y a une décennie.

Feynman a décrit l'ordinateur comme «un système de classement glorieux, de grande classe, très rapide mais stupide», géré par un employé de fichiers infiniment stupide (l'unité centrale de traitement) qui suit aveuglément les instructions (le logiciel). Ici, le greffier n'a aucun concept, même pas des lettres ou des chiffres. Dans une célèbre conférence sur l'heuristique informatique, Feynman a exprimé ses doutes sur la possibilité de machines vraiment intelligentes, affirmant que «personne ne sait ce que nous faisons ou comment définir une série de mesures qui correspondent à quelque chose d'abstrait comme la pensée».

Ces points présentent des raisons très convaincantes de croire que nous ne pourrons jamais atteindre une IA forte, c'est-à-dire des agents artificiels vraiment intelligents. Peut-être que même les simulations de cerveau les plus précises ne rapporteront rien, et que les logiciels ne produiront pas de conscience. Il pourrait ne pas être dans les cartes pour un processeur binaire strict. Il n'y a rien à propos du traitement des symboles ou du calcul qui génère une expérience subjective ou des phénomènes psychologiques comme des sensations qualitatives.

En entendant cela, on pourrait être enclin à demander: «Si un ordinateur ne peut pas être conscient, alors comment un cerveau peut-il?» Après tout, c'est un objet purement physique qui fonctionne selon la loi physique. Il utilise même l'activité électrique pour traiter l'information, tout comme un ordinateur. Pourtant, d'une manière ou d'une autre, nous expérimentons subjectivement le monde – à partir d'une perspective de la première personne où se produisent des sensations intérieures, qualitatives et ineffables qui ne nous sont accessibles. Prenez par exemple ce que vous ressentez lorsque vous voyez une jolie fille, buvez une bière, marchez sur un clou ou entendez un orchestre de mauvaise humeur.

La vérité est que les scientifiques essaient encore de comprendre tout cela. Comment les phénomènes physiques, comme les processus biochimiques et électriques, créent la sensation et l'expérience unifiée est connu comme le «problème difficile de la conscience», et est largement reconnu par les neuroscientifiques et les philosophes. Même le neuroscientifique et auteur populaire Sam Harris – qui partage les préoccupations de Musk en matière de rébellion robotisée – reconnaît le problème difficile à résoudre lorsqu'il affirme que la question de savoir si une machine peut être consciente est «une question ouverte». Malheureusement, il ne semble pas réaliser pleinement que pour que les machines représentent une menace existentielle découlant de leurs propres intérêts personnels, il faut être conscient.

Cependant, bien que le problème de la conscience soit certes difficile, il n'y a aucune raison de croire que la science ne peut pas le résoudre. Alors, quel genre de progrès avons-nous fait jusqu'ici?

La conscience est un phénomène biologique

Tout comme un ordinateur, les neurones communiquent entre eux en échangeant des signaux électriques de manière binaire. Soit un neurone se déclenche ou non, et c'est ainsi que les calculs neuronaux sont effectués. Mais contrairement aux ordinateurs numériques, les cerveaux contiennent une foule de processus cellulaires et moléculaires analogiques, de réactions biochimiques, de forces électrostatiques, de neurones synchronisés globaux à des fréquences spécifiques et de connexions structurelles et fonctionnelles uniques avec d'innombrables boucles de rétroaction.

Même si un ordinateur peut créer avec précision une représentation numérique de toutes ces caractéristiques, ce qui en soi implique de nombreux obstacles sérieux, une simulation d'un cerveau n'est pas encore un cerveau physique. Il y a une différence fondamentale entre la simulation d'un processus physique et le processus physique lui-même. Cela peut sembler un point discutable pour de nombreux chercheurs en apprentissage automatique, mais lorsqu'on le considère longuement, il semble tout sauf anodin.

La simulation n'est pas la même que la duplication

L'hypothèse de l'IA Faible dit que les ordinateurs ne peuvent que simuler le cerveau, et selon certains comme John Searle – qui a inventé les termes Strong et Faible AI – une simulation d'un système conscient est très différente de la réalité. En d'autres termes, le matériel de la «machine» est important et les simples représentations numériques des mécanismes biologiques n'ont aucun pouvoir de provoquer quoi que ce soit dans le monde réel.

Considérons un autre phénomène biologique, comme la photosynthèse. La photosynthèse se réfère au processus par lequel les plantes convertissent la lumière en énergie. Ce processus nécessite des réactions biochimiques spécifiques seulement viables étant donné un matériau ayant des propriétés moléculaires et atomiques spécifiques. Une simulation informatique parfaite – une émulation – de la photosynthèse ne sera jamais capable de convertir la lumière en énergie, quelle que soit sa précision, et quel que soit le type de matériel fourni à l'ordinateur. Cependant, il existe en fait des machines de photosynthèse artificielle. Ces machines ne simulent pas simplement les mécanismes physiques qui sous-tendent la photosynthèse chez les plantes, mais au contraire reproduisent les forces biochimiques et électrochimiques à l'aide de cellules photoélectrochimiques qui divisent l'eau photocatalytique.

De même, une simulation de l'eau ne va pas posséder la qualité de «l'humidité», qui est le produit d'une formation moléculaire très spécifique d'atomes d'hydrogène et d'oxygène maintenus ensemble par des liaisons électrochimiques. La liquidité apparaît comme un état physique qualitativement différent de celui exprimé par l'une ou l'autre molécule seule.

Même la nouvelle théorie de la nouvelle théorie de la neuroscience, Integrated Information Theory, montre clairement qu'une simulation informatique d'un cerveau n'aurait pas la conscience comme un vrai cerveau, tout comme la simulation d'un trou noir ne causera pas votre ordinateur et votre chambre imploser. Les neuroscientifiques Giulio Tononi et Christof Koch, qui ont établi la théorie, ne mâchent pas leurs mots sur le sujet:

"IIT implique que les ordinateurs numériques, même si leur comportement devait être fonctionnellement équivalent au nôtre, et même s'ils devaient exécuter des simulations fidèles du cerveau humain, ne connaîtraient presque rien."

Dans cet esprit, nous pouvons toujours spéculer sur la possibilité d'existence de machines non biologiques qui soutiennent la conscience, mais nous devons réaliser que ces machines peuvent avoir besoin de dupliquer les processus électrochimiques essentiels (quels qu'ils soient) qui se produisent dans le cerveau pendant la conscience. États. Si cela s'avère possible sans matériaux organiques – qui ont des propriétés moléculaires et atomiques uniques – cela nécessiterait probablement plus que des machines de Turing, qui sont des processeurs purement syntaxiques (manipulateurs de symboles), et des simulations numériques qui pourraient manquer des mécanismes physiques nécessaires.

La meilleure approche pour parvenir à une IA forte consiste à découvrir comment le cerveau agit en premier, et la plus grande erreur des chercheurs en apprentissage automatique est de penser qu'ils peuvent prendre un raccourci. En tant que scientifiques et humains, nous devons être optimistes quant à ce que nous pouvons accomplir. Dans le même temps, nous ne devons pas être trop confiants dans les voies qui nous dirigent dans de mauvaises directions et nous empêcher de faire de réels progrès.

Le mythe de l'IA forte

Depuis les années 1960, les chercheurs de l'IA prétendent que Strong AI est juste au coin de la rue. Mais malgré les augmentations monumentales de la mémoire, de la vitesse et de la puissance de traitement de l'ordinateur, nous ne sommes pas plus proches qu'avant. Donc, pour l'instant, tout comme les films de science-fiction du passé qui décrivent des scénarios d'IA apocalyptiques, des robots vraiment intelligents avec une expérience intérieure consciente restent un fantasme fantaisiste.