Parfois, la vie nous mène à prendre des décisions difficiles. Par exemple, lors d’un freinage brusque, un conducteur peut être amené à écraser des piétons pour sauver sa peau, ou au contraire, à encastrer sa voiture dans un muret pour éviter le groupe, quitte à sacrifier sa propre existence. Un terrible dilemme, à résoudre en une fraction de seconde qui plus est.
Mais que faire si le conducteur ne conduit pas, parce qu’il dispose d’une voiture autonome ? Quelle option va donc choisir le robot qui commande votre véhicule : vous préserver ? Ou vous tuer ?
Altruisme et survie
Une équipe de chercheurs du CNRS, du MIT et de l’Université d’Origon, s’est penchée sur la psychologie des conducteurs et sur celle qu’il conviendrait d’appliquer à la machine. Les voitures sans conducteurs (VSC) sillonneront nos routes d’ici quelques années ; bien des questions doivent être tranchées, y compris les plus lugubres.
Les travaux, publiés dans la revue Science, ont été menés aux Etats-Unis sur 2000 participants interrogés à travers six enquêtes. Ils révèlent que sur le plan conceptuel, les citoyens adhèrent parfaitement à l’idée de sacrifier leur vie pour en sauver plusieurs. Plus de 75 % des sondés estiment que les voitures autonomes devraient choisir de tuer leur passager pour la survie du plus grand nombre - et ce, et même si le conducteur transporte ses enfants à bord.
Sur le plan conceptuel, donc, les sondés s’avèrent altruistes. En pratique, c’est moins évident. A la question : « achèteriez-vous un véhicule qui choisirait de vous sacrifier pour sauver un groupe ? », les participants ont manifesté un sens de l’humanisme plus nuancé. En fait, la plupart d’entre eux préférait plutôt que les autres conducteurs acquièrent une telle voiture ; mais pour eux-mêmes, ils aimaient autant avoir un véhicule qui les protège.
"The Moral Machine"
Pour lever les difficultés liées à ces désirs peu conciliables, les chercheurs ont imaginé une législation qui imposerait aux véhicules d’adopter la logique du collectif, le principe du plus grand nombre de vies sauvées. Ce à quoi les sondés se sont montrés fermement opposés : dans un tel contexte législatif, peu seraient enclins à acquérir une voiture autonome.
Ces réglementations pourraient donc avoir l’effet inverse de celui escompté, alertent les chercheurs. Elles risquent « de coûter davantage de vies, en freinant l'adoption par les citoyens d'une voiture autonome, plus sûre que les véhicules actuels », résume dans un communiqué le CNRS.
Pour affiner le profil psychologique des hommes et des robots conducteurs, les chercheurs ont monté un portail sur Internet, baptisé « Moral Machine ». Les internautes sont invités à s’interroger sur leurs préférences : la voiture autonome doit-elle freiner tout droit sur les piétons, ou dévier à droite en écrasant les trois petits chiens qui traversent ? Sacrifier un homme ou plutôt une femme ? Les vieillards ou la famille ?
« L'objectif, pour les scientifiques, est d'identifier et d'étudier les situations pour lesquelles les personnes rencontrent le plus de difficultés à prendre une décision », précise le communiqué du CNRS. Et à terme, de mettre au point une « machine morale », à l’image de l’homme. Bon courage.