Aux Etats-Unis, un accident de la route a causé la mort d’un passager. Ce dernier avait pris place à bord d’une voiture autonome Tesla équipée d’Autopilot, un système de pilotage automatique permettant au véhicule de se conduire tout seul. C’est la première fois qu’un accident mortel implique une voiture autonome.
Les autorités américaines ont diligenté une enquête sur les circonstances de cet accident. Selon les éléments recueillis par l’agence américaine de la sécurité routière (NHTSA), l'accident est survenu lorsqu'« un camion a pris un tournant à gauche en face de la Tesla à une intersection ». Ni le passager de la voiture ni le système Autopilot n’ont détecté la présence du camion. Par conséquent, les freins de la Tesla n’ont pas été enclenchés.
La production de voitures autonomes est en plein essor. Les machines, considérées comme plus sûres que l’être humain, ont pour objectif de réduire, à terme, la mortalité et les accidents de la route. Toutefois, avant que ces machines prennent la route pour de bon, de nombreuses questions nécessitent d’être résolues – y compris les plus lugubres.
Altruisme et survie
Par exemple, lors d’un freinage brusque, un conducteur peut être amené à écraser des piétons pour sauver sa peau, ou au contraire, à encastrer sa voiture dans un muret pour éviter le groupe, quitte à sacrifier sa propre existence. Mais que faire si le conducteur ne conduit pas, parce qu’il dispose d’une voiture autonome ? Quelle option va donc choisir le robot qui commande votre véhicule : vous préserver ? Ou vous tuer ?
Une équipe de chercheurs du CNRS, du MIT et de l’Université d’Oregon, s’est penchée sur la psychologie des conducteurs et sur celle qu’il conviendrait d’appliquer à la machine en cas d'accident de la route. Les travaux, publiés dans la revue Science, ont été menés aux Etats-Unis sur 2 000 participants interrogés à travers six enquêtes. Ils révèlent que sur le plan conceptuel, les citoyens adhèrent parfaitement à l’idée de sacrifier leur vie pour en sauver plusieurs. Plus de 75 % des sondés estiment que les voitures autonomes devraient choisir de tuer leur passager pour la survie du plus grand nombre – et ce, et même si le conducteur transporte ses enfants à bord.
Sur le plan conceptuel, donc, les sondés s’avèrent altruistes. En pratique, c’est moins évident. A la question : « Achèteriez-vous un véhicule qui choisirait de vous sacrifier pour sauver un groupe ? », les participants ont manifesté un sens de l’humanisme plus nuancé. En fait, la plupart d’entre eux préférait plutôt que les autres conducteurs acquièrent une telle voiture ; mais pour eux-mêmes, ils aimaient autant avoir un véhicule qui les protège.
"The Moral Machine"
Pour lever les difficultés liées à ces désirs peu conciliables, les chercheurs ont imaginé une législation qui imposerait aux véhicules d’adopter la logique du collectif, le principe du plus grand nombre de vies sauvées. Ce à quoi les sondés se sont montrés fermement opposés : dans un tel contexte législatif, peu seraient enclins à acquérir une voiture autonome.
Ces réglementations pourraient donc avoir l’effet inverse de celui escompté, alertent les chercheurs. Elles risquent « de coûter davantage de vies, en freinant l'adoption par les citoyens d'une voiture autonome, plus sûre que les véhicules actuels », résume dans un communiqué le CNRS.
Pour affiner le profil psychologique des hommes et des robots conducteurs, les chercheurs ont monté un portail sur Internet, baptisé « Moral Machine ». Les internautes sont invités à s’interroger sur leurs préférences : la voiture autonome doit-elle freiner tout droit sur les piétons, ou dévier à droite en écrasant les trois petits chiens qui traversent ? Sacrifier un homme ou plutôt une femme ? Les vieillards ou la famille ?
« L'objectif, pour les scientifiques, est d'identifier et d'étudier les situations pour lesquelles les personnes rencontrent le plus de difficultés à prendre une décision », précise le communiqué du CNRS. Et à terme, de mettre au point une « machine morale », à l’image de l’homme. Bon courage.