Quand exactement les ordinateurs vont-ils prendre Ape-Shi * et prendre le dessus?

Dans la série télévisée culte des années 1990, Mystery Science Theatre 3000 , nous avons droit à deux extraterrestres et à un mec qui se fraye un chemin à travers de terribles vieux films de série B comme Project Moonbase . Par exemple, dans son épisode de 1963, The Slime People: Up from the Bowels de la Terre, le personnage principal appelle l'opérateur sur le téléphone public d'un aéroport déserté de Los Angeles, et l'un des robots improvise: «Salut. C'est la race humaine. Nous ne sommes pas en ce moment. S'il vous plaît, parlez clairement après le bruit de la bombe. "

Mystery Science Theatre 3000 a maintenant disparu, mais si vous aimez vous moquer des histoires de science-fiction apocalyptiques, vous aurez plus que votre plein à regarder les réactions et appuyez sur les proclamations futuristes de Ray Kurzweil à son Earthbase Singularity University. La proclamation la plus célèbre de Kurzweil est que nous approchons rapidement de la «singularité», le moment où l'intelligence artificielle surpasse l'intelligence humaine (ou quelque temps après). Après le son de cette bombe, l'intelligence artificielle créera une intelligence artificielle toujours meilleure, et toutes sortes d'ajustements frapperont le shan.

Il n'y a pas de pénurie de scepticisme sur la singularité, donc pour miser sur ma terre et risquer d'être la première batterie humaine installée après la singularité, je vais vous dire pourquoi il n'y a pas de singularité à venir. Pas d'ici 2028, pas d'ici 2045, pas avant 500 ans – bien après, je serai utilisé comme batterie, ou même comme compost, pour nos futurs maîtres.

Quel est le problème avec l'idée d'une singularité imminente? Les capacités de calcul ne sont-elles pas en croissance exponentielle?

Oui. Et nous serons en effet capables de créer une intelligence artificielle toujours croissante.

Le problème est: quelle intelligence artificielle devrions-nous construire?

Dans l'évolution, nous tombons souvent dans le piège d'imaginer une échelle linéaire d'animaux – de la bactérie à l'homme – quand il s'agit en fait d'un arbre. Et en IA, nous pouvons tomber dans un piège similaire. Mais il n'y a pas de chaîne linéaire d'IA de plus en plus intelligentes. Au lieu de cela, il existe un réseau très complexe et ramifié d'IA possibles. Pour toute IA, il y en a plein d'autres qui ne sont ni plus ni moins intelligents – ils sont simplement intelligents différemment. Et ainsi, à mesure que l'IA avance, elle peut le faire de multiples façons, et les nouvelles intelligences seront souvent strictement incomparables les unes aux autres. … et strictement incomparable à l'intelligence humaine. Pas plus intelligent que les humains, et pas moins. Juste étranger.

Ces intelligences artificielles extraterrestres peuvent parfois être soignées, mais pour la plupart, nous, les humains, nous ne leur dirons rien. Nous sommes biologiquement incapables (ou du moins handicapés) d'apprécier l'intelligence extraterrestre et, si l'on était bâti, on sourirait poliment et on l'ignorerait. Et bien qu'une bonne partie de notre dédain envers ces IA extraterrestres serait due à nos préjugés et au provincialisme terrestre, il y a aussi de bonnes raisons de penser que l'IA extraterrestre sera probablement sans valeur. Nous sommes intéressés par l'IA qui fait ce que nous faisons, mais le fait beaucoup mieux. Alien AI aura tendance à faire quelque chose d'étonnant, mais pas ce que nous faisons.

C'est pourquoi la plupart des chercheurs de l'IA visent des intelligences artificielles à peu près semblables à des «mammifères», des IA qui sont suffisamment similaires à l'intelligence humaine pour que nous puissions faire une comparaison. "Ah, cette IA est clairement moins intelligente qu'un humain, mais plus intelligente qu'un chien. Et cette intelligence artificielle est si intelligente que je suis mal à l'aise de la laisser brésilienne. »Les chercheurs d'IA visent à construire des intelligences non extraterrestres, mais des intelligences terrestres mammaliennes, avec des mécanismes cognitifs et perceptuels que nous pouvons apprécier. L'intelligence artificielle super-intelligente ne sera pas une singularité à moins qu'elle ne soit super-intelligente et ressemble à peu près à un mammifère.

Mais pour construire une intelligence artificielle semblable à celle d'un mammifère, nous devons comprendre le cerveau des mammifères, y compris le nôtre. En particulier, nous devons inverser l'ingénierie du cerveau – c'est-à-dire, déterminer ce qu'il fait , ses fonctions . Sans la première ingénierie inverse, les chercheurs en IA sont dans la position d'un ingénieur à qui l'on demande de construire un appareil, mais sans aucune information sur ce qu'il devrait faire.

La rétro-ingénierie est, en effet, partie intégrante du futur proche de Kurzweil: le cerveau sera inversé dans quelques décennies, croit-il. En tant qu'inverseur neurobiologique, je ne suis encouragé que lorsque je trouve des chercheurs – que ce soit à la base lunaire ou dans les entrailles de la Terre – prenant au sérieux la conception adaptative du cerveau, souvent ignorée ou activement désapprouvée dans les neurosciences. On trouve une reconnaissance similaire de l'ingénierie inverse dans le cerveau IBM chat et les projets European Blue Brain.

Et il y a votre problème pour la période de plusieurs décennies pour la singularité! Inverser quelque chose d'aussi complexe astronomiquement que le cerveau est, bien, astronomiquement difficile – probablement la tâche la plus difficile de l'univers. Le progrès dans la compréhension des fonctions exercées par le cerveau n'est pas quelque chose qui vient simplement avec plus de puissance de calcul. En effet, la détermination de la fonction effectuée par une machine (qu'il s'agisse d'un cerveau ou d'un programme informatique) n'est généralement pas calculable (c'est l'un de ces résultats d'indécidabilité du 20ème siècle).

Comprendre ce qu'est un mécanisme biologique nécessite plus que de mettre la main sur la viande. Vous devez également comprendre le comportement de l'animal et l'écologie dans laquelle il a évolué. Les mécanismes biologiques conçus par l'évolution pour faire une chose dans des circonstances naturelles peuvent souvent faire des tas d'autres choses ineptes dans des circonstances non naturelles, mais seuls les premiers sont pertinents pour comprendre à quoi servent les mécanismes.

Pour comprendre le cerveau, il faut comprendre la «nature» de l'animal. Et ainsi, le progrès de l'IA nécessite quelqu'un de très différent de votre chercheur d'IA traditionnel qui est imprégné d'algorithmes, de logique, de réseaux de neurones et souvent de linguistique. Les chercheurs en intelligence artificielle ont besoin de ce type de base de calcul, mais ils doivent également posséder les perspectives des éthologues d'autrefois, comme Nikolaas Tinbergen et Konrad Lorenz.

Mais caractériser le comportement et l'écologie des animaux complexes doit être fait à la manière ancienne – l'observation sur le terrain, et ensuite tester des hypothèses créatives sur la fonction biologique. Il n'y a pas de raccourcis pour inverser l'ingénierie du cerveau – il n'y aura pas de future machine pour scruter les mécanismes biologiques et discerner leur raison d'être.

L'ingénierie inverse progressera, et la croissance exponentielle de la technologie facilitera sûrement la tâche – mais elle ne conduira pas à une croissance exponentielle de la vitesse à laquelle nous réingénions notre cerveau. 2025 et 2045 – et je soupçonne 3000 – passeront, et la plupart de nos cerveaux resteront vagues et mystérieux.

Mark Changizi est professeur de Cognition Humaine à 2AI, et l'auteur de The Vision Revolution (Benbella Books) et du prochain livre Harnessed: How Language and Music a imité la Nature et Transformé Ape to Man (Livres Benbella).