David Chalmers et la Singularité qui ne viendra probablement pas

David Chalmers est un philosophe de l'esprit, mieux connu pour son argument de la difficulté de ce qu'il appelle le "problème difficile" de la conscience, qu'il décrit généralement au moyen d'une expérience de pensée avec des zombies qui agissent et parlent exactement comme les humains. Je n'ai pas de pensée consciente (j'ai expliqué clairement ce que je pense de ce genre de chose dans mon essai sur "La zombification de la philosophie").

Hier, j'ai eu le plaisir de voir Chalmers en action au Graduate Center de la City University de New York. Il ne parlait pas de zombies, nous racontant ses pensées au sujet de la soi-disant Singularité, le moment présumé où l'intelligence artificielle surpasserait l'intelligence humaine, entraînant soit l'enfer soit la prochaine étape glorieuse de l'évolution humaine – selon que vous voyez généralement le verre à moitié vide ou à moitié plein. L'entretien m'a fait comprendre ce qu'est le problème de Chalmers (autre que sa très mauvaise coupe de cheveux): il lit trop de science-fiction et est apparemment incapable de sortir de la suspension nécessaire de l'incrédulité quand il revient au monde réel. Laisse-moi expliquer.

L'argument de Chalmers (et d'autres partisans de la possibilité d'une Singularité) part du simple constat que les machines ont acquis une puissance de calcul extraordinaire ces dernières années, une tendance que l'on peut extrapoler à une explosion d'intelligence proche. Dommage que, comme le sait tout étudiant en statistiques, l'extrapolation soit une très mauvaise façon de faire des prédictions, à moins qu'on ne soit raisonnablement assuré de comprendre les phénomènes causaux sous-jacents (ce qui n'est pas le cas de l'intelligence). (J'ai posé une question à Chalmers dans le Q & A et il a nié avoir utilisé le mot extrapolation, j'ai vérifié avec plusieurs collègues sur le vin et le fromage, et ils ont tous confirmé qu'il l'a fait – plusieurs fois.)

Quoi qu'il en soit, Chalmers a continué à présenter son argument principal pour la Singularité, qui va quelque chose comme ceci:

1. Il y aura bientôt AI (c.-à-d., Intelligence artificielle)
2. Il y aura bientôt une transition de l'IA à l'AI +
3. Il y aura bientôt une transition d'AI + à AI ++

Par conséquent, il y aura AI ++

Les trois prémisses et la conclusion sont suivies d'une déclaration entre parenthèses à l'effet que chacun ne détient que des «défaitistes absents», c'est-à-dire, absent de tout ce qui pourrait nuire à l'un de ces éléments.

Chalmers était évidemment très fier de son argument, mais j'avais l'impression que peu de gens étaient impressionnés, et je ne l'étais certainement pas. Tout d'abord, il a toujours refusé de définir ce que AI ++, AI +, ou même AI signifient réellement. Ceci, dans un discours de philosophie, est un péché assez grave, parce que l'analyse philosophique ne décolle que si nous sommes raisonnablement clairs sur ce dont nous parlons. En effet, une grande partie de l'analyse philosophique vise à clarifier les concepts et leurs relations. Vous auriez été dur (et de plus en plus frustré) de trouver une analyse philosophique quelconque dans le discours de Chalmers.

Deuxièmement, Chalmers n'a pas donné une seule raison à ses mouvements, affirmant simplement chaque prémisse et ajoutant que si l'IA est possible, il n'y a aucune raison de croire que AI + (quoi que ce soit) n'est pas possible, voire probable. bientôt. Mais, mon ami, si vous faites une demande de roman, le fardeau de la preuve est sur vous pour soutenir qu'il existe des raisons positives de penser que ce que vous suggérez peut être vrai, pas sur le reste d'entre nous pour prouver qu'il n'est pas . Le renversement du fardeau de la preuve est la plus vieille astuce de la boîte à outils de la rhétorique, et non celle qu'un philosophe qui se respecte devrait déployer devant ses pairs (ou ailleurs, d'ailleurs).

Troisièmement, notez l'avertissement entre parenthèses que l'un des prémisses, ainsi que la conclusion, ne tiendra pas réellement si un «défait» entrave. Lorsqu'on lui a demandé pendant le Q & A ce qu'il voulait dire par les défaiteurs, Chalmers a dit à peu près tout ce que les humains ou la nature pouvaient faire au développement de l'intelligence artificielle. Mais si tel est le cas, et si nous ne disposons pas d'une classification et d'une analyse de tels défaiteurs, alors l'argument entier équivaut à «X est vrai (à moins que quelque chose ne prouve que X n'est pas vrai).

L'autre éléphant dans la pièce, bien sûr, est le concept même d '«intelligence» artificielle ou humaine. C'est un concept notoirement difficile à déballer, et encore plus à mesurer quantitativement (ce qui serait nécessaire pour faire la différence entre AI et AI + ou AI ++). Plusieurs personnes ont noté ce problème, y compris moi-même dans le Q & A, mais Chalmers l'a balayé cavalièrement en disant que son argument ne dépend pas de l'intelligence humaine, ou de la puissance de calcul, ou de l'intelligence dans un sens plus large. il s'est rapidement associé à un ensemble non spécifié de capacités cognitives grâce à une fonction de mappage mathématique également non spécifiée (ajoutant que «plus de travail devrait être fait» pour étoffer cette notion – sans blague). Vraiment? Mais attendez une minute, si nous avons commencé toute cette discussion sur la singularité en utilisant un argument basé sur l'extrapolation du pouvoir de calcul, notre discussion ne devrait-elle pas être limitée au pouvoir de calcul? (Ce qui, inutile de le dire, n'est pas du tout la même chose que l'intelligence.) Et si nous parlons de l'IA, que diable le «je» représente-t-il, sinon l'intelligence – vraisemblablement d'un genre humain?

En fait, le problème avec l'IA en général est que nous avons peu de progrès à montrer après des décennies de tentatives, probablement pour la bonne raison que l'intelligence humaine n'est pas algorithmique, du moins pas dans le même sens que les programmes informatiques. Je ne vais certainement pas invoquer le mysticisme ou le dualisme ici, je pense que l'intelligence (et la conscience) sont le résultat de l'activité d'un substrat cérébral physique, mais le fait même que nous pouvons construire des machines avec un dépasse ceux de l'esprit humain, et pourtant ne sont pas loin d'être «intelligents», il devrait être assez clair que le problème n'est pas de calculer la puissance ou la vitesse.

Après le déploiement de l '«argument» très discutable mentionné ci-dessus, les choses sont devenues bizarres dans le discours de Chalmers. Il a rapidement expliqué que A ++ se produirait par évolution simulée dans un environnement virtuel – faisant ainsi un mélange flou et confus de différentes notions telles que la sélection naturelle, la sélection artificielle, l'évolution physique et l'évolution virtuelle.

Ce qui a naturellement soulevé la question de savoir comment nous contrôlons la Singularité et arrêtons «eux» de nous pousser à l'extinction. La solution préférée de Chalmers est soit d'empêcher la «fuite» d'AI ++ dans notre monde, soit de choisir des valeurs morales pendant le processus d'évolution (virtuel). Idiote, je pensais que le moyen le plus simple d'arrêter la menace de l'IA ++ serait de simplement débrancher les machines du monde virtuel présumé et d'en finir avec elles. (Incidemment, qu'est-ce que cela signifie pour une intelligence virtuelle d'exister? Comment "fuit-elle" dans notre monde? Comme un hologramme de Star Trek?)

Puis le niveau d'absurdité sans fondement a augmenté encore plus vite: peut-être sommes-nous en fait un exemple d'intelligence virtuelle, a déclaré Chalmers, et notre Créateur peut être prêt à nous détourner parce que nous sommes sur le point de fuir dans son monde . Mais sinon, alors nous pourrions vouloir réfléchir à la façon de nous intégrer dans AI ++, ce qui pourrait naturellement être fait en "téléchargeant" notre structure neurale (la recommandation de Chalmers est un neurone à la fois) dans l'intelligence virtuelle – encore une fois, quoi que pourrait signifier.

Enfin, Chalmers – évidemment troublé par sa propre mortalité (enfin, qui ne l'est pas?) – a exprimé l'espoir que A ++ aura la technologie (et l'intérêt, je suppose) pour désosser son cerveau, peut-être sur une collection de scans, livres, et des vidéos de lui, et le ramener à la vie. Vous voyez, il ne pense pas qu'il vivra assez longtemps pour réellement voir la Singularité arriver. Et c'est la seule partie de la conversation sur laquelle nous sommes tombés d'accord.

La raison pour laquelle j'ai longuement parlé de la performance abominable de Chalmers est que c'est précisément le genre de chose qui donne un mauvais nom à la philosophie. C'est agréable de voir des philosophes s'intéresser sérieusement à la science et d'apporter les outils et les perspectives de leur discipline à la table haute des débats sociaux importants sur l'avenir de la technologie. Mais la tentative devient une blague pas particulièrement drôle quand un philosophe bien connu commence par déployer une très mauvaise argumentation et finit par sonner plus de coucou que les fans de trekkie à leur convention annuelle. Maintenant, si vous voulez bien m'excuser, je reviendrai au prochain épisode de Battlestar Galactica, où vous pourrez trouver toutes les idées de base discutées par Chalmers présentées d'une manière immensément plus divertissante que son discours.