Expliquer nos exigences de sécurité extrêmes pour les voitures autonomes

Cottonbro / Pexels

Source: Cottonbro / Pexels

Les voitures autonomes promettent d’égayer nos vies de multiples façons. Les Américains passent en moyenne près d’une heure par jour pour se rendre au travail et en revenir. Bien que les voitures autonomes ne réduisent pas notre temps de trajet, elles nous permettront d’utiliser ce temps de manière plus productive ou plus amusante.

Les voitures autonomes peuvent également faciliter la vie des personnes incapables de conduire seules en raison de leur vieillesse ou d’un handicap.

Enfin, des recherches ont montré que l’introduction de voitures autonomes une fois qu’elles sont au moins 10% plus sûres que le conducteur moyen épargnerait des centaines de milliers de 1,25 million de vies perdues chaque année dans des accidents de la route.

Malgré l’avantage de permettre aux voitures autonomes sur la route dès qu’elles sont un peu plus sûres que l’homme moyen, il existe une résistance importante du public à l’introduction de voitures autonomes, à moins qu’elles ne soient extrêmement sûres par rapport au conducteur humain moyen (par exemple, 90% plus sûr que le conducteur humain moyen). Une nouvelle étude révèle que deux erreurs cognitives jouent un rôle important dans l’explication de cette réticence à l’égard des voitures autonomes.

Deux erreurs cognitives

Dans une étude publiée dans le numéro de mai 2021 de la revue Transportation Research, le psychologue Azim Shariff et ses collègues ont entrepris d’examiner dans quelle mesure deux biais cognitifs bien connus connus sous le nom de le biais illusoire de supériorité et aversion d’algorithme, qui aboutissent à des raisonnements fallacieux, expliquent la réticence du public à accepter une conduite en voiture autonome, à moins qu’elle ne soit extrêmement sûre.

Le biais illusoire de supériorité – ou ce qu’on appelle aussi l’effet meilleur que la moyenne—C’est la tendance à nous percevoir comme des conducteurs nettement meilleurs que le conducteur moyen.

Les chercheurs ont prédit que, parce que la plupart d’entre nous ont tendance à nous considérer comme meilleurs que les conducteurs moyens, la plupart d’entre nous nous prendrons pour être désavantagés si nous acceptons une conduite dans une voiture autonome qui n’est que légèrement plus sûre que la moyenne. chauffeur.

A lire aussi  Nous avons besoin d'une justice réparatrice pour les victimes d'actes criminels

L’aversion pour les algorithmes est une opposition excessive pour s’appuyer sur des algorithmes même lorsque ces algorithmes sont égaux ou quelque peu supérieurs aux humains.

L’aversion des algorithmes a déjà été démontrée en ce qui concerne les diagnostics médicaux. Par exemple, lorsqu’on leur donne le choix de recevoir un diagnostic médical par un médecin humain ou un ordinateur, la plupart des gens préfèrent recevoir le diagnostic par l’humain, même si l’ordinateur s’est avéré plus précis que l’humain.

Shariff et coll. a prédit que l’aversion pour les algorithmes est un autre facteur expliquant la réticence des gens à conduire une voiture autonome. Plus précisément, ils ont prédit que les gens seraient moins disposés à conduire avec une voiture autonome qu’un chauffeur de taxi humain ayant le même bilan en matière de sécurité.

Méthodologie

Pour identifier dans quelle mesure l’effet supérieur à la moyenne (ou l’illusion de supériorité) et l’aversion de l’algorithme affectent la résistance du public à l’adoption de voitures autonomes, les chercheurs ont mené trois expériences.

Dans les deux premières expériences, les participants ont été invités à indiquer le niveau de sécurité minimum (sur une échelle mobile) dont ils auraient besoin pour accepter un trajet avec une entreprise de covoiturage (comme Uber ou Lyft). La moitié des participants a été informée que le trajet était assuré par une voiture autonome, tandis que l’autre moitié a été informé que le trajet était assuré par un conducteur humain.

Les participants ont en outre été invités à évaluer leur propre sécurité en tant que conducteur par rapport aux autres conducteurs américains.

Les deux premières expériences ont encadré la sécurité de différentes manières. Dans l’expérience 1, la sécurité a été définie en termes de pourcentage d’accidents éliminés (par exemple, 10% signifie que le taux d’accidents est inférieur de 10% à celui du conducteur moyen).

A lire aussi  Prendre les choses pour acquis

Dans l’expérience 2, la sécurité a été définie en termes de rang centile parmi les conducteurs américains (par exemple, lorsque le conducteur humain moyen a 1 chance sur 600 à vie de mourir dans un accident de voiture, 10% plus sûr signifie que vous avez 1 chance sur 660 à vie. de mourir dans un accident de voiture.)

Dans l’expérience 3, les participants ont été divisés en deux groupes. Les mêmes questions que les participants de la deuxième étude ont été posées au premier groupe. Le deuxième groupe a été invité à évaluer sa propre sécurité en tant que conducteur par rapport aux autres conducteurs américains, mais a été informé de l’existence d’un biais de supériorité illusoire.

Comme dans les expériences 1 et 2, les chercheurs ont interrogé la moitié des participants sur le seuil de sécurité requis pour rouler avec une voiture autonome et l’autre moitié sur le seuil de sécurité requis pour rouler avec un conducteur humain.

Résultats

Les résultats ont révélé que les biais psychologiques de la supériorité illusoire et de l’aversion des algorithmes jouent un rôle important pour expliquer la résistance du public à l’adoption de voitures autonomes, à moins qu’elles ne soient extrêmement sûres.

Les deux premières expériences ont montré que quels que soient le sexe, l’âge et le niveau d’éducation, la majorité des participants pensaient que si tout le monde conduisait comme eux, 66% des accidents (expérience 1) ou 76% des accidents (expérience 2) seraient éliminés. La majorité des répondants considéraient ainsi leur propre capacité de conduite comme nettement meilleure que la moyenne, comme le prédit le biais illusoire de supériorité.

Il a été constaté que les répondants ayant des estimations plus élevées de leur propre capacité de conduite exigeaient des seuils de sécurité plus élevés pour les voitures autonomes, ce qui confirme la prédiction selon laquelle plus les gens se perçoivent eux-mêmes au-dessus de la moyenne, plus le seuil de sécurité qu’ils exigent d’une voiture autonome est élevé.

A lire aussi  La narration est utile pour enseigner la moralité

Les résultats ont en outre révélé que les gens étaient moins disposés à conduire avec une voiture autonome qu’avec un chauffeur de taxi humain ayant le même bilan de sécurité (pour 50%, 75% et 90%).

L’expérience 3 a montré que le fait d’alerter les gens sur l’omniprésence du biais illusoire de supériorité a amené les gens à réduire leur évaluation de leur propre sécurité en tant que conducteurs de 12% en moyenne.

Le fait d’alerter les participants sur la vulnérabilité générale des gens au biais illusoire de supériorité a en outre abaissé les seuils de sécurité pour la conduite avec d’autres êtres humains. Mais le fait de disposer de ces informations ne faisait aucune différence quant au niveau de sécurité exigé des voitures autonomes.

Les implications pratiques

L’étude montre donc que les voitures autonomes devraient être nettement plus de 10% plus sûres que le conducteur moyen pour qu’elles soient largement adoptées.

Comme Shariff et al. faites remarquer, cette constatation est préoccupante. Si nous attendons que les voitures autonomes soient 90% plus sûres que le conducteur moyen plutôt que 10% plus sûres avant de les adopter, beaucoup plus de personnes perdront la vie dans des accidents de la route. De plus, le délai pour une augmentation de 90% de la sécurité sera beaucoup plus long que si nous adoptions des voitures autonomes alors qu’elles étaient 10% plus sûres et utilisions les données pour améliorer la sécurité.