Comment gagner un tournoi de Turing

Un article paru aujourd'hui dans le Daily Telegraph fait à peu près la même remarque à propos des ordinateurs qui ont besoin d'acquérir des compétences mentales – et la compréhension de la parole en particulier – que j'ai faites récemment. Mais si les ordinateurs peuvent être conçus pour être suffisamment mentalistes pour comprendre le discours de leurs utilisateurs et interpréter leurs intentions, il y a peu de raisons pour qu'ils ne deviennent pas assez mentalistes pour lire des livres – et peut-être plus important encore pour les comprendre .

Wikimedia commons
Source: Wikimedia commons

Les progrès de la capacité de lecture automatique que nous imaginons seraient l'équivalent automatisé de ce que l'on appelle l' hyperlexie . C'est le contraire de la dyslexie , et décrit la capacité précoce de lire, souvent sans beaucoup de perspicacité dans la signification d'un texte, et souvent trouvé en conjonction avec ASD. Le regretté Kim Peek (à gauche) était extrêmement hyperlexique et avait appris à lire à l'âge de 16 mois. En effet, des tests ont révélé qu'il pouvait lire les pages gauche et droite d'un livre ouvert avec les yeux gauche et droit simultanément et avec une compréhension de 98% en 8 à 10 secondes. Grâce à ses compétences étonnantes, il a traversé le roman de Tom Clancy, The Hunt for Red Octobre , en une heure et 25 minutes et a encore été capable de donner des citations textuelles en réponse à des questions précises de détails quatre mois plus tard!

Cependant, bien qu'ayant cette étonnante capacité de reproduire textuellement du texte, Peek trouva très difficile de raconter le contenu de ce qu'il avait lu dans ses propres mots, et d'une manière typique de l'hyperlexie, il présentait de graves déficits lorsque la compréhension plutôt que de simplement répéter, ce qu'il avait lu était concerné. Et là encore, un parallèle saisissant se retrouve dans des ordinateurs qui sont aujourd'hui aussi hyperlexiques dans le sens où ils peuvent vous lire le texte, sans pour autant en comprendre le sens!

La difficulté de base pour la conception d'ordinateur en ce qui concerne l'ingénierie de la capacité d'une machine à lire et comprendre un livre est étroitement liée à celle de l'ingénierie d'une capacité à comprendre le discours d'une personne. Les deux s'appuient sur la capacité linguistique, mais plus particulièrement sur la capacité de comprendre la terminologie mentaliste et d'apprécier les états mentaux tels que la croyance, la connaissance et l'intention. Cependant, une fois qu'une telle terminologie est devenue accessible à un ordinateur à travers l'ingénierie d'une interface utilisateur mentaliste comme suggéré dans le post précédent, le vaste dépôt de la connaissance humaine encodé dans les livres du monde l'était aussi. Le vrai problème est la quantité considérable de connaissances de bon sens qui est également nécessaire pour interpréter ce que vous lisez: pas seulement ce que les mots signifient dans le dictionnaire, mais ce qu'ils signifient dans leur contexte social, culturel et psychologique.

Comme les autistes, on peut s'attendre à ce que les ordinateurs aient des déficits mentaux là où la compréhension est concernée – et nulle part plus clairement que par rapport à un autre aspect fondamental du mentalisme où l'on trouve des déficits d'autisme: l'appréciation de l'humour. Après une conférence qu'il a donnée, un membre de l'auditoire a posé à Kim Peek une question sur l'adresse de Gettysburg d'Abraham Lincoln à laquelle Peek a répondu; "La maison de Will, 227 North West Front Street. Mais il n'y resta qu'une nuit – il prononça le discours le lendemain. »Le rire qui accueillit cette remarque surprit Peek au début, mais après avoir vu la blague lui-même, il recopia régulièrement le commentaire pour son effet comique.

En interrogeant un ordinateur intelligent sur l'adresse de Gettysburg de Lincoln, vous pourriez facilement comprendre comment le système pourrait faire exactement la même erreur. Mais étant donné que des malentendus de ce genre sont très susceptibles de se produire, les ingénieurs logiciels seront confrontés au problème de la gestion des pannes de communication entre l'utilisateur et la machine, et une solution évidente serait d'imiter la nature et de donner à la machine capacité à se moquer de ses propres erreurs (sans parler de trouver amusants les mots d'esprit de son utilisateur). Au minimum, une interface mentaliste compétente devrait être capable d'apprécier l'ironie (un autre déficit majeur en autistique), et un système vraiment intelligent devrait certainement être capable de comprendre l'humour sous toutes ses formes s'il essayait de comprendre ses utilisateurs humains.

Et de toute façon, l'hilarité involontaire est aussi susceptible d'être produite par les ordinateurs parlants que par les jeunes enfants. Les ingénieurs qui ont l'intention de rendre leurs interfaces utilisateurs mentalistes plus mûres à cet égard seraient sûrs de s'appuyer sur les développements déjà en cours pour développer la capacité du système à gérer l'humour, ce qui exigerait non seulement d'éviter les solécismes enfantins et le double dérisoire sens , mais l'appréciation de vraies blagues, et peut-être même la capacité de leur dire. En effet, vous pourriez même envisager que le sens de l'humour du système soit un paramètre défini par l'utilisateur: avec des paramètres allant du farfelu farfelu au goujon teutonique!

Des limites comparables concernant la capacité des ordinateurs à gérer les connaissances contextuelles et de bon sens signifient que les tests de Turing conçus pour voir si les réponses d'un ordinateur aux questions peuvent être distinguées de celles d'une personne ne peuvent pas être complètement ouverts au sujet de la discussion. Les machines se sont bien débrouillées avec le vin, la politique et la religion comme sujets de conversation (sans doute parce que ce sont des sujets sur lesquels vous pouvez parler d'absurdité totale et être pris au sérieux). En effet, un programme a même passé un test de Turing au point de convaincre cinq juges sur dix qu'il s'agissait d'un psychothérapeute humain (certes, quelque chose qui pourrait en dire autant sur la psychothérapie que sur l'intelligence d'une machine)!

Pourtant, si les ordinateurs pouvaient accéder et acquérir des connaissances sur n'importe quel sujet aussi facilement que n'importe quel être humain, il pourrait ne pas être nécessaire de restreindre les sujets de conversation au test – et sans doute aucun moyen d'utiliser leurs connaissances particulièrement humaines pour juger si le système avec lequel ils interagissaient fonctionnait sur une machine ou non. Au contraire, si l'alphabétisation de l'ordinateur était d'un ordre supérieur à celui du juge humain, la machine pourrait avoir l'avantage.

Mais bien sûr, la machine pourrait encore échouer – peut-être parce qu'elle semblait en savoir trop, ou qu'elle semblait encore un peu "autiste" par rapport à l'être humain moyen. Néanmoins, même si de tels systèmes ne pouvaient toujours pas passer pour des personnes complètement normales, ils pourraient facilement devenir les équivalents machine de savants autistes comme Kim Peek. Son expertise était avant tout une connaissance encyclopédique de centaines de livres, et vraisemblablement un ordinateur mentalement programmé capable de lire une quantité équivalente pouvait accomplir des exploits comparables et se présenter comme un savant similaire. En effet, ces considérations suggèrent un stratagème évident pour les programmeurs qui ont l'intention d'écrire un logiciel gagnant de Turing: expliquez les forces et les faiblesses du style cognitif de votre système en le faisant passer pour un savant autiste!

(Extrait et condensé de mon prochain livre, The Diametric Mind: Regards sur l'intelligence artificielle, le QI, la société et la conscience: une suite à The Imprinted Brain .)