Les ordinateurs manquent de jugement social

istock subsciption
Source: sous-division istock

Une récente fender fender dans laquelle un Google Self-Driving Car a été frappé par un bus tout en essayant de fusionner en face de lui, a jeté un voile sur l'industrie automobile autonome. À titre d'exemple de la démoralisation causée par l'accident, un responsable de Google a déclaré qu'il faudrait peut-être trois décennies pour résoudre le problème mis au jour par ce revers. Le problème est que l'ordinateur de la voiture a prédit que le bus s'arrêterait pour laisser la voiture fusionnée passer devant, mais le chauffeur de bus ne s'est pas comporté comme prévu. Google a assumé la responsabilité de l'accident, tout en affirmant que le conducteur humain avait contribué à l'accident par (mes mots) étant discourtois. (Pour un compte rendu de l'accident de Google et ses conséquences, voir ce lien: theverge.com).

En discutant de cette histoire avec un passionné de voiture auto-conduite récemment, il a dit que le vrai problème est la réaction du public. Il a souligné le fait que les pare-chocs dans les voitures exploitées par les humains se produisent extrêmement fréquemment, sans susciter beaucoup d'inquiétude, et que l'objectif d'une voiture complètement autonome est plus proche de la réalité que la plupart des gens. Le problème des relations publiques est évidemment un problème, bien que je le considère comme étroitement lié à la chimère d'atteindre la perfection dans la quête d'évitement des accidents. Dans un récent sondage AAA, 75% des conducteurs ont indiqué qu'ils seraient extrêmement réticents à remettre le contrôle complet de leur conduite à leur voiture. Il est probable que le nombre de sceptiques diminuerait considérablement si les voitures autonomes se révélaient absolument sûres. Quelques accidents mortels ou presque mortels pourraient, à mon avis, conduire à mettre sur les tablettes l'initiative de la conduite autonome pendant une longue période, peut-être pour toujours. Est-ce que quelqu'un d'autre qu'un visionnaire de logiciel croit vraiment qu'une telle perfection de sûreté est toujours réalisable, ou que l'acceptation répandue du public en l'absence de la quasi-perfection, est toujours probable? Au risque de me mettre dans la même catégorie que les sceptiques qui se moquaient de la démonstration de l'éther ou d'un certain nombre d'autres innovations, ma réponse aux entrepreneurs autonomes est «rêver».

Ceux qui croient que les voitures autonomes sont proches d'un point de vue réel à la voiture entièrement électrique Tesla modèle-S, qui a un mode auto-conduite ("pilote automatique") qu'un conducteur peut activer. Selon mon ami. on peut aujourd'hui conduire des centaines de miles sur l'autoroute dans une auto-conduite Tesla tout en faisant des choses distrayantes telles que la lecture d'un journal. Trouvant cela surprenant, j'ai vérifié l'affirmation et l'ai trouvé un peu exagéré. Selon le fondateur et PDG de Tesla Elon Musk, l'option de conduite autonome (qu'il décrit comme une version bêta imparfaite) doit toujours être utilisée avec les mains sur le volant, ce qui exclurait certainement la lecture d'un journal. Musk a reconnu récemment quelques incidents quasi catastrophiques, mais il en a blâmé les conducteurs qui ont ignoré cet avertissement, en enlevant leurs mains du volant. Ces incidents impliquaient principalement ce qu'on pourrait appeler des erreurs non sociales (c'est-à-dire la lecture du terrain), mais presque toutes les décisions de conduite, en particulier lorsque les autres voitures font partie du terrain, exigent un jugement social de la part de l'opérateur. humain ou un ordinateur. (Pour un compte-rendu de certains échecs de Tesla-S, voir technologyreview.com).

Le soutien à la revendication que l'on peut aujourd'hui conduire des centaines de miles sur le pilote automatique Tesla peut être trouvé dans un voyage de cross-country bien publicisé pris dans un Tesla-S qui a fait le voyage en un temps record. Cependant, ce que l'on ne sait pas généralement, c'est qu'il y a eu trois incidents au cours du voyage, au cours desquels un accident grave a été évité de justesse. Dans l'un de ces incidents, la voiture est entrée dans une courbe à 90 milles à l'heure (bien au-dessus de la limite de vitesse) et la voiture aurait perdu le contrôle si l'humain n'avait pas rapidement pris le relais. Le problème semblait être que l'algorithme informatique de la voiture l'invitait à suivre le repère de voie ou de ligne centrale à une distance standard, mais les conducteurs expérimentés savent qu'il faut corriger la vitesse élevée (en plus de ralentir) en prenant une courbe plus proche que habituel au sommet de la route, afin de réduire le degré de rotation de la roue nécessaire pour négocier la courbe en toute sécurité. La conclusion ici semble être que la voiture ne peut pas encore fonctionner en toute sécurité à haute vitesse. Un autre accident s'est produit lorsque la voiture a été perturbée par l'action d'une autre voiture et a traversé la ligne médiane de la route, dirigeant la Tesla-S dans la circulation et ce qui aurait pu être une collision frontale fatale.

Fait intéressant, alors que Google a blâmé en partie le conducteur de son accident, Tesla a entièrement blâmé ses clients pour de tels incidents, avertissant les propriétaires qu'en cas d'accident en mode de pilotage automatique, la responsabilité financière reviendrait entièrement au conducteur. À quoi je dis «beaucoup de chance, Elon, dire cela à un juge quand un client grièvement blessé ou la famille du propriétaire vous poursuit.» En fait, certains commentateurs ont mis Tesla à l'épreuve pour des raisons éthiques et légales de rendre disponible un pilote automatique imparfait dispositif lorsqu'il est prévisible que de nombreux propriétaires supposeront à tort qu'il s'agit d'un véhicule entièrement opérationnel, et donc totalement sûr, autonome. Les motivations de Tesla pour se précipiter dans la production un produit clairement non prêt? Probablement l'ego (soutenant la prétention de Musk qu'il devance Google et d'autres concurrents dans la course d'AI) et, bien sûr, monétaire (incitant les gens à acheter les produits plutôt chers de l'entreprise).

Bien qu'il semble que les situations non sociales (telles que les axes centraux ou les bretelles d'accès ambigus, confus ou mal conçus) demeurent un obstacle très difficile à surmonter pour l'industrie automobile autonome, je crois que le principal obstacle à leur succès éventuel réside dans le domaine social. Comme l'illustre l'accident de bus, les décisions d'une voiture autonome sont basées en partie sur des prédictions sur ce que le conducteur d'une autre voiture est susceptible de faire, mais si nous savons quelque chose sur le comportement humain, elle n'est pas entièrement prévisible. de cela, il suffit de regarder les développements politiques récents au Moyen-Orient ou, d'ailleurs, aux États-Unis). En outre, les conducteurs partageant la route avec un véhicule autonome peuvent avoir des problèmes de vision, être dans un état altéré, inattentif ou agité, ou manquent de compétence de conduite, ce qui peut les amener à faire des mouvements dangereux et soudains qu'aucun autre ordinateur super-ordinateur sera toujours capable de s'adapter assez rapidement. Le fait est qu'un pilote expérimenté et compétent «lit» toujours le comportement et les intentions des autres conducteurs, et effectue des réponses en une fraction de seconde, basées non sur des probabilités mais sur des inférences et des perceptions en temps réel.

L'illustration de la base de jugement social pour de nombreux accidents peut être trouvée dans l'expérience des conducteurs adolescents débutants, dont les parents paient des primes d'assurance très élevées pour une raison. Ma femme coiffeuse m'a récemment raconté l'histoire de son fils de 18 ans, qui a eu deux (heureusement) petits accidents dans les cinq premiers jours après avoir obtenu son permis. Aucun d'entre eux n'était techniquement sa faute, mais le fait demeure que ni l'un ni l'autre n'aurait eu lieu s'il avait eu un an ou deux de plus. Dans l'un des accidents, le jeune homme conduisait quand une voiture est entrée sur la route à partir d'une allée sur la droite et a enfoncé dans la porte du côté passager du conducteur néophyte. L'explication du jeune homme est qu'il se concentrait sur la route à venir et ne considérait pas la possibilité qu'une telle chose se produise. Presque certainement, il y avait des indices subtils, tels que l'autre voiture qui s'approchait de la route et qui semblait vouloir sortir. Il est également probable que lui-même ait inconsciemment contribué au problème, par exemple en semblant indiquer que l'autre voiture pouvait continuer. Un conducteur expérimenté et prudent est sensible à de tels indices subtils (essentiellement sociaux) et est conscient de la nécessité de s'engager dans un flux continu de calculs d'évaluation des risques. Un conducteur inexpérimenté, comme ce jeune homme, est profondément égocentrique, car il ne considère que son propre point de vue en conduisant, et aussi en faisant beaucoup d'autres choses. À mon avis, il n'est pas clair pour moi comment une voiture pilotée par ordinateur serait mieux qu'un lecteur néophyte à lire et à émettre des indices sociaux aussi subtils.

Les ingénieurs en logiciel sont bons pour résoudre les problèmes physiques, mais ils n'ont pas encore résolu ou même prêté beaucoup d'attention aux problèmes de jugement social. J'ai pris conscience de cette réalité il y a quelques années lors d'une conférence annuelle au Colorado qui portait sur l'application de la technologie aux personnes ayant une déficience cognitive. Toutes les présentations érudites portaient sur l'application de logiciels et de matériel à des problèmes physiques, tels que les problèmes de mobilité. Quand est venu mon tour de parler, j'ai parlé d'un film que le public venait de regarder à propos d'un handicapé intellectuel qui était soutenu par ses gentils voisins qui lui permettaient de continuer à vivre dans leur immeuble à New York. Tous les défis qui menaçaient de continuer à vivre dans le bâtiment étaient d'ordre social, comme sa crédulité extrême (mon intérêt particulier) qui se reflétait dans le fait qu'il prêtait la clé de son appartement aux gens de la rue (qui terrorisaient les voisins, volaient choses et endommagé le bâtiment de diverses manières). Quand j'ai défié les autorités de calcul (certaines légendaires) qui étaient rassemblées à la conférence pour dire comment la technologie pouvait résoudre de tels comportements motivés par le jugement social (et la solitude), la réponse était celle du silence.

Le mouvement de conduite autonome est intéressant non seulement comme un phénomène automobile, mais comme une illustration des développements dans le domaine de l'intelligence artificielle (IA). Google est un exemple d'entreprise extrêmement optimiste quant à la capacité de ses informaticiens, utilisant les avancées croissantes de la miniaturisation des puces, à améliorer le fonctionnement humain par IA. Peut-être le principal exemple d'une telle attitude est Raymond Kurzweil – un inventeur de génie de nombreux appareils informatiques soi-disant (et quelqu'un considéré comme un Thomas Edison moderne) – qui travaille maintenant à temps plein en tant que futurologue résident de Google. Kurzweil a écrit plusieurs livres et donné beaucoup de conférences vantant sa vision optimiste de l'avenir du «transhumanisme» (l'utilisation de technologies de plus en plus sophistiquées pour améliorer l'intelligence humaine) et de la «singularité» (l'utilisation de la technologie pour changer la biologie humaine maladie et prolongeant la vie humaine). Au centre de ces concepts se trouve la croyance quelque peu controversée de Kurzweil selon laquelle l'essence de l'intelligence est la reconnaissance des formes (les ordinateurs sont bons) et que les informaticiens seront ainsi en mesure de construire une version améliorée du cerveau humain. La conduite automobile compétente, qui dépend fortement de la reconnaissance des formes, semble donc être une extension évidente du concept d'intelligence artificielle. Un problème avec les grands génies (tels que Kurzweil) et les grandes entreprises (comme Google) est qu'ils ont souvent du mal à savoir quand ils ont pris un "problème trop loin." Ma propre conviction est que la création d'une voiture autonome capable de reconnaître et répondre avec succès aux centaines de défis de jugement social et physique impliqués dans la sécurité du point A au point B s'avèrera être un problème qui ne pourra être résolu pendant la vie de Kurzweil, même s'il réussit à modifier sa biochimie (150 [en baisse d'un maximum de 200] pilules par jour) et vit pour une autre centaine d'années.

Droit d'auteur Stephen Greenspan