Devrions-nous débrancher l'intelligence artificielle?

Dans un post récent, j'ai suggéré que les expériences sexuelles artificielles dans le futur rivaliseront ou surpasseront la réalité. La peur de l'asservissement par des machines intelligentes et la peur des machines plus intelligentes que nous est un aliment de base de la science-fiction, à la suite d'Isaac Asimov. Stephen Hawking, un scientifique des célébrités, a maintenant peur. Est-ce que le reste d'entre nous devrait être?

Pourquoi Hawking est flippé

Le point de départ de Hawking est un nouveau film, Transcendence, avec Johnny Depp. Le film implique des versions robotiques d'humains qui expriment toute la gamme des émotions humaines avec un pouvoir analytique dépassant l'intelligence collective de tout le monde sur toute l'histoire.

Nous nous attendons à ce que la science-fiction exagère, bien sûr, mais il y a un sens dans lequel nos pires craintes ont déjà été réalisées. Nous vivons à une époque où les ordinateurs sont déjà meilleurs que les humains aux échecs et même s'ils sont menacés. Les voitures autonomes sont plus sûres que celles contrôlées par les opérateurs humains. Les avions sont maintenant principalement pilotés par des programmes informatiques et la disposition des avions dans le ciel en attendant les pistes est une merveille de technologie numérique.

Les ordinateurs lisent mieux les examens médicaux que les médecins et sont encore meilleurs pour tester des hypothèses scientifiques que la plupart des scientifiques. Les ordinateurs sont encore tremblants à jouer aux sports tridimensionnels comme le football, mais ils s'améliorent rapidement, en partie grâce au développement de prothèses intelligentes.

Plus près de nous, Google sait ce que je veux rechercher avant de finir de taper ma requête. Les bots enregistrent mes mouvements sur internet et me suivent sur différents sites en me suggérant des produits à acheter. Certains patrouiller utilement sur Internet à la recherche de bonnes affaires adaptées à mes besoins.

La technologie est déjà beaucoup plus intelligente que n'importe lequel d'entre nous. Si nous devons nous inquiéter est en grande partie une question de savoir si les robots sont bien disposés envers les humains, et si cette relation est stable. Ce problème est bien saisi par la relation entre Jeeves, le majordome, et Bertie Wooster, l'employeur, dans les romans de PG Wodehouse.

Faire confiance à Jeeves

Bertie Wooster pouvait toujours faire confiance à Jeeves et leur relation était certainement prévisible et aussi stable que le système de classe britannique sur lequel il était basé. Même si Jeeves était plus intelligent que Wooster et mieux à même de saisir les informations pertinentes de l'environnement, Wooster n'avait pas à s'inquiéter de voir son poste usurpé.

Avoir un majordome intelligent était un avantage, tout comme avoir un jardinier musclé, mais ce n'était pas une menace parce que Wooster faisait confiance à Jeeves pour utiliser son intelligence au profit du maître. Wooster ne s'inquiétait pas plus que Jeeves ne subvertisse l'ordre social, il s'inquiétait que le jardinier n'entrât par les portes-fenêtres pour le jeter bas avec le coup d'une pelle sur le côté de la tête. Il n'y a pas de révolutions paysannes à Wodehouse.

Il n'y a pas d'équivalent d'un système de classe rigide pour contrôler les robots, bien qu'Isaac Asimov ait suggéré que les robots soient toujours programmés de manière à ce que leurs efforts soient orientés vers le bien de l'humanité. Cela peut devenir délicat, en particulier dans un monde futur où les robots se dessinent eux-mêmes.

Hawking reconnaît que les technologies futures peuvent nous aider à éradiquer les problèmes humains de longue date que sont la guerre, la maladie et la pauvreté. Pourtant, il se méfie des problèmes potentiels:

"On peut imaginer une telle technologie surpasser les marchés financiers, inventer des chercheurs humains, et développer des armes que nous ne pouvons même pas comprendre", frette Hawking.

À l'ère du commerce à grande vitesse, on pourrait soutenir que l'un de ces obstacles a déjà été franchi et que l'intelligence artificielle est déjà très bonne pour faire de la science. Et qui comprend vraiment ce qui se passe aux frontières du développement de nouvelles armes.

Pourtant, la question la plus fondamentale à poser à propos de l'IA n'est pas de savoir si elle est potentiellement dangereuse, mais si elle est digne de confiance.

Pourquoi nous devrions vraiment nous inquiéter

Beaucoup de dystopies de science-fiction conçoivent des robots se levant et arrachant le contrôle loin des chefs humains. C'est probablement la dernière chose dont nous devons nous inquiéter à moins que les robots ne soient contrôlés par une intelligence humaine malveillante.

Il y a plusieurs raisons pour lesquelles l'intelligence artificielle peut être menaçante, mais je mettrais les accidents bien au-dessus de la malice. Certains futuristes s'inquiètent que de minuscules entités autoréplicatives puissent envelopper le monde et causer un effondrement écologique – une apocalypse de la nanotechnologie connue sous le nom d '«hypothèse de la goose grise».

Il n'est pas difficile d'imaginer comment les virus informatiques pourraient infecter de nombreux systèmes de contrôle, si bien que les marchés financiers se sont figés, le réseau électrique est devenu noir et les avions se sont heurtés dans les aéroports tandis que les voitures auto-pilotaient dans les murs. Ne pensez même pas à un robot effectuant une chirurgie cardiaque lorsque son logiciel est compromis!