La voiture autonome est censée améliorer le trafic et surtout fournir plus de sécurité aux usagers de la route. Leurs capteurs et l’intelligence artificielle devraient permettre de réduire le nombre d’accidents. Dans les cas où l’accident est inévitable, la voiture va-t-elle prendre la bonne décision ?
Tuer ou être tué ?
Plusieurs cas d’accidents sont inévitables, même en présence de l’intelligence artificielle : une voiture hors de contrôle, un enfant qui coupe brusquement la route… Comment l’IA va-t-elle gérer la situation ? Si un car solaire devient hors de contrôle et fonce vers vous sur un pont étroit, votre voiture autonome va-t-elle continuer sa route en vous sauvant et tuant les passagers du car ou plutôt se jeter dans le vide vous tuant et sauvant la vie des passagers du car ?
La question est surtout de savoir à qui revient la responsabilité de cette décision. Les chercheurs de l’université de Bologne ont alors pensé à un « bouton éthique » qui permettrait au conducteur de prendre ses responsabilités dans ces cas : soit sauver les autres en sacrifiant sa vie, soit faire preuve d’égoïsme.
Un avantage
Donner le choix au conducteur présente un avantage. Une personne peut avoir une approche différente de la situation selon sa situation personnelle. Les chercheurs pensent notamment à des modes « altruiste » ou « égoïste » pour le « bouton éthique ». Un père de famille pourrait se mettre en mode altruiste quand il conduit seul et passer en mode égoïste lorsqu’il est avec ses enfants.
Tout cela reste actuellement un débat puisque la voiture complètement autonome n’est toujours pas au point. On se limite actuellement aux navettes et robots-taxis qui effectuent des missions dans une zone très précise.