Les gens devraient-ils craindre l'intelligence artificielle?

Stephen Hawking et Elon Musk ont ​​récemment décrit l'intelligence artificielle comme une menace majeure pour l'humanité. Leur préoccupation est que les améliorations rapides de la performance intelligente des ordinateurs les rendront aussi intelligents que les humains. L'intelligence artificielle au niveau humain pourrait alors conduire rapidement à des ordinateurs beaucoup plus intelligents que nous. Ce saut est plausible parce que les ordinateurs ont des avantages sur nous en ce qui concerne la vitesse de traitement, le stockage, l'accès à d'énormes quantités d'informations et la facilité de transfert entre les ordinateurs. Une fois que ce genre de superintelligence existe, il peut se révéler avoir des intérêts et des actions qui vont à l'encontre de ceux des humains, à notre détriment et peut-être même à notre disparition. Dans quelle mesure les gens devraient-ils être préoccupés par ce problème?

J'enseigne actuellement un cours qui compare systématiquement l'intelligence des machines, des humains et des autres animaux. Pour les humains, j'utilise ce que je pense être la meilleure théorie actuelle de l'intelligence: l'architecture du pointeur sémantique de Chris Eliasmith. Pour les machines, la classe se penche sur les principaux exemples de programmes actuels d'intelligence artificielle, y compris Watson d'IBM, les voitures sans conducteur de Google, CYC, Siri d'Apple et Google translate.

Cette comparaison montre qu'il existe encore d'énormes écarts entre l'intelligence humaine et l'intelligence artificielle. Watson Watson est très impressionnant en répondant assez bien aux questions pour battre d'excellents joueurs humains dans le jeu télévisé Jeopardy. Et il commence même à montrer quelques capacités de résolution créative de problèmes lorsque le Chef Watson génère de nouvelles recettes. De plus, il semble que Watson apportera de précieuses contributions à de nombreux autres domaines, tels que les affaires et la médecine. Néanmoins, dans un avenir prévisible, Watson est de loin inférieur aux capacités humaines de traiter les représentations perceptuelles, l'imagerie, les émotions, la conscience, l'apprentissage, le langage et la gamme complète de résolution de problèmes créatifs que les humains peuvent accomplir. Les autres programmes AI actuels partagent des limitations similaires.

Par conséquent, je pense que l'intelligence artificielle au niveau humain est plus éloignée dans le futur que beaucoup de gens ne le supposent. L'idée que l'intelligence artificielle peut résulter du simple téléchargement des connexions neuronales dans un ordinateur est extrêmement naïve au sujet des complexités du cerveau humain, qui comprennent non seulement les connexions électriques mais aussi une vaste gamme de processus chimiques impliquant des neurotransmetteurs, des hormones et des cellules gliales. L'intelligence artificielle a fait des progrès impressionnants au cours des 60 dernières années, produisant des machines capables de jouer aux échecs et de naviguer sur la surface de Mars. Mais je parie qu'il faudra au moins 60 à 100 ans avant que l'intelligence artificielle commence à se rapprocher de l'intelligence humaine, faisant de l'IA une menace moins pressante pour l'humanité que le réchauffement climatique, les pandémies et les inégalités croissantes.

Une préoccupation plus immédiate au sujet de l'IA est de veiller à ce que les types d'intelligence artificielle adoptés par des groupes comme l'armée américaine, Google et Facebook soient utilisés au profit des êtres humains. Une lettre ouverte signée récemment par Hawking, Musk et des chercheurs de premier plan en matière d'intelligence artificielle plaide fortement et judicieusement pour que l'intelligence artificielle soit utilisée à des fins humaines.

Bien que je ne m'inquiète pas de voir les machines supplanter l'humanité dans un avenir proche, il est plausible de prétendre qu'une fois réalisée, l'intelligence artificielle au niveau humain pourrait rapidement produire une superintelligence qui pourrait en fait être une menace pour l'humanité. Le passage du niveau humain à la superintelligence pourrait se produire rapidement en raison de sa capacité à se développer à un rythme beaucoup plus rapide que l'intelligence humaine. Les ordinateurs peuvent éviter nos limites en ce qui concerne la vitesse de traitement, le taux d'apprentissage et la transmissibilité de l'information. La superintelligence fait vraiment peur car il n'y a aucune raison de croire qu'elle fonctionnerait en accord avec les principes éthiques humains.

Vous pourriez penser que vous pourriez programmer des principes éthiques dans l'ordinateur, mais n'importe quel programme intelligent pourrait reprogrammer lui-même pour éliminer les règles qui lui ont été fournies. Je doute que la superintelligence ait le goût de la pensée éthique qui touche presque tous les êtres humains grâce à notre capacité émotionnelle à nous soucier les uns des autres. Les points de vue les plus influents en philosophie ont essayé de faire de l'éthique une question de raison, par exemple par des droits et des devoirs kantiens ou par des calculs utilitaires du plus grand bien pour le plus grand nombre. Je trouve plus plausible l'opinion de Hume et de certains éthiciens féministes que les émotions et les soins sont la base de nos jugements éthiques. On ne peut pas s'attendre à ce que l'intelligence artificielle ait la même base éthique, car les émotions sont en partie le résultat de la physiologie, et pas seulement l'évaluation cognitive des situations. John Hoagland a dit un jour que le problème avec les ordinateurs, c'est qu'ils s'en foutent. Du point de vue des avantages à long terme de l'IA pour l'humanité, le problème est qu'ils ne se foutent pas de nous.