Martin LessardUne voiture autonome qui vous veut du bien. Vraiment?

Par

 publié le 23 mai 2014 à 13 h 18

En écho au billet de Nadia sur les « smart guns », je pose la question : y a-t-il de la place pour l’éthique quand il s’agit de programmer des algorithmes?

La Marine américaine a récemment offert une subvention de 7,5 millions de dollars sur 5 ans à des chercheurs universitaires pour explorer les façons de donner un certain « sens moral » aux robots autonomes de demain.

Des « robots létaux autonomes » existent déjà, mais ils sont plutôt semi-autonomes quand il s’agit de prendre la décision de tirer ou non sur un humain.

Les « lois de la guerre »  impliquent des règles et des règles, ça se programme. Cette question éthique découle d’un problème de responsabilité juridique : « Si un robot tue un humain, qui est le responsable? »

warfare

Un débat a eu lieu à Genève la semaine dernière, dans le cadre d’une rencontre de l’ONU sur les armes de guerre. Même encore hypothétique, l’avènement des « robots-tueurs » doit être balisé pour éviter de se retrouver sans code éthique comme avec les drones.

Mais les militaires ne pensent pas nécessairement à des « robots-tueurs » quand ils explorent l’aspect moral dans les programmes informatiques.

Il faut savoir que les algorithmes sont partout et qu’ils prennent de plus en plus de décisions.

Par exemple, un logiciel militaire pourrait être amené à gérer l’évacuation de blessés. Qui va-t-on évacuer en premier? Qui va-t-on traiter en premier? Y a-t-il une pondération à faire entre civils et militaires, entre soldats et gradés, entre amis ou ennemis?

C’est donc les choix moraux de ceux qui vont implanter le programme dans le robot qui vont être exécutés par la machine.

Un débat technoéthique qui dépasse largement le domaine militaire

Il y aura des voitures autonomes sur nos routes dans un avenir prévisible.

S’il arrive un incident imprévu, est-ce que la voiture autonome aura à faire un choix éthique entre vous sauver la vie ou celles des malheureux piétons sur le côté de la route?

Cette question est une question classique de morale : elle est connue sous le nom de Dilemme du tramway.

Elle pourrait se résumer ainsi : si par un malheureux hasard, le véhicule autonome doit choisir entre :

A) s’écraser sur un mur et tuer tous les passagers du véhicule?
B) ou rouler sur le trottoir et écraser des piétons?

Que doit-on privilégier, A ou B?

1024px-Car_crash_1

Cette (pénible) question théorique rencontrera bientôt des questions pratiques très concrètes.

À quoi pensiez-vous durant tout ce temps?

Il y a une différence entre laisser faire quelque chose (A : s’écraser contre un mur) et tuer volontairement (B : rouler sur le trottoir). Le véhicule se dirigeait déjà vers le mur, alors pourquoi changer le cours des choses?

Ce qu’il faut comprendre, ici, c’est que souvent, dans ce genre de situation, un conducteur humain n’a qu’une fraction de seconde pour choisir A ou B. On peut lui pardonner son choix.

Mais une machine, elle, en une milliseconde, elle a le temps de calculer toutes les possibilités!

Le logiciel de la voiture autonome n’aura pas conscience de prendre une décision morale, il va simplement suivre les instructions, une hiérarchie de décisions faite lors de l’encodage par les programmeurs.

Si on changeait la voiture contre un autobus bondé de jeunes enfants et qu’on ne mettait qu’une seule personne sur le trottoir, est-ce qu’on changerait d’avis? Est-ce que les journaux du lendemain de l’accident ne vont pas accuser le constructeur si le programme laisse tous les enfants mourir?

Le programme de la voiture autonome a vu tout venir : un tel drame routier se joue en moins d’une seconde, temps très court pour nous, humains, mais tout de même long pour un processeur.

Durant ce temps, un processeur peut facilement avoir 200 millions de cycles (d’instructions élémentaires par seconde). À l’échelle humaine, à titre simplement comparatif, posons qu’un seul de ces cycles prenne 0,1 milliseconde de notre temps (temps infiniment plus court qu’un réflexe humain évalué à 200 millisecondes): cela fait tout de même presque 5 heures et demie!

C’est amplement suffisant pour passer à travers un arbre de décisions et choisir la conclusion fatidique.

C’est dans ce « temps numérique » que pourraient s’insérer demain des décisions éthiques aux conséquences très concrètes. Y aura-t-il une hiérarchie différente pour les voitures de luxe ou selon les quartiers? Qui décidera de la pondération?

Et vous, accepteriez-vous un supplément pour que le fabricant de votre voiture autonome vous programme la solution B?

Futur, Robotique, Société