Dilemme du tramway

Dernière mise à jour : 07/08/2019

Souvent associé aux voitures autonomes, ce dilemme ne montre en réalité que la méconnaissance profonde des gens envers le problème de l’intelligence artificielle.

Comment piéger une voiture autonome ?

Le poids des morts

Pour résumer, la question est de savoir qui doit être sacrifié en cas d’accident, c’est-à-dire quelle solution doit choisir l’intelligence artificielle de la voiture si l’accident est inévitable et que quelle que soit l’alternative choisie, il y aura des morts.

A question idiote…

Car oui, la question est parfaitement idiote pour les véhicules autonomes : savoir s’il faut choisir de tuer le papy ou le jeune enfant est aussi stupide que les questions du sketch de Pierre Palmade : « [Tu préfères] être poilu comme un gorille ou avoir les yeux sur les côtés comme un poisson ? Héberger chez toi sept nains, ou 101 dalmatiens ? »

En effet, ce dilemme est une question sociale (ou morale, éthique) mais n’est pas une question technique destinée à être appliquée. Ce concept est passionnant du point de vue social (pour lequel il a été pensé) mais totalement inapplicable, stupide et inutile pour une voiture autonome.

Modélisons bien

Premier biais

Introduire ce dilemme dans le cas d’intelligence artificielle ou de conduite automatique induit un biais : on présuppose par là que tout problème possède une solution (qui de plus devrait être rationnelle et optimale).

Or ce qui différencie un bon d’un mauvais choix est souvent une question morale, ce qui est donc sujet à des variations selon la population, la culture, le temps, etc. Pour un situation donnée, la meilleure réponse dépendra donc… du conducteur, et non de l’automate qui conduit !

Second biais

Même en supposant que le point précédent n’est pas un problème, le second biais provient de la croyance parfaitement fantaisiste que le système de conduite posséderait, au moment de l’accident, toutes les données nécessaires à l’analyse du problème (qui, selon moi, n’a déjà pas de réponse, cf. point précédent).

Par ailleurs, la modélisation doit être parfaite, et sa mise en oeuvre doit être réalisée sans aucune erreur ou bogue, la captation des données doit aussi être quasi-instantanée et sans erreur. Ainsi, la moindre trace d’huile doit avoir été vue, la position de chacune des victimes doit être connue au millimètre près (position de la tête, des membres, etc.).

Pour illustrer, je repense à un sketch de Pierre Jolivet sur un autre sujet (le tabac), dans lequel il a la vie sauve au cours d’un accident de voiture parce qu’il s’est penché pour ramasser un paquet de clopes au moment où une poutre tombe d’un camion et traverse la pare-brise (tuant au passage son copain non-fumeur). Dans son analyse, le système de conduite aura aussi prévu ce mouvement du passager ?

Troisième biais

Plus subtil, la croyance que ce problème possède une solution optimale repose sur un déterminisme total : cela revient à dire qu’au moment de l’accident, on connaîtrait déjà le futur possible de chacun des impliqués, afin de pouvoir faire le meilleur choix possible.

En gros, celui qui devrait devenir le sauveur de l’humanité, le grand philosophe, le grand médecin, etc. doit être parfaitement identifié au moment de l’accident pour que le système choisisse.

Y a-t-il une bonne réponse ?

Pour moi, oui, et elle est très simple : l’algorithme de la voiture autonome doit… protéger ses passagers ! Partant du principe qu’il est impossible de prévoir toutes les conséquences extérieures de l’accident qui va se produire, l’ordinateur ne peut que tenter de minimiser les blessures de ses passagers.

D’ailleurs, monteriez-vous dans une voiture qui vous dirait : « en cas d’accident, il y a un risque que je doive vous tuer pour le bien de l’humanité » ? Moi, c’est clairement non. Le sacrifice (mon sacrifice) ne doit pas être le choix d’une machine.

Sources