Il y a quelques semaines, un chauffeur américain d’une Tesla Model S est décédé après avoir embouti un camion avec remorque. D’après l’enquête, il semblerait que le chauffeur ait utilisé le système de conduite semi-autonome « Autopilot » qui freine, maintient la voiture dans sa voie, la fait changer de bande et la gare.

L’enquête a également démontré que ni le chauffeur, ni le système Autopilot n’avait remarqué ce camion avec remorque. Selon les spécialistes, le système n’a pu différencié la remorque blanche du ciel claire et la Tesla n’a donc pas freiné. Le conducteur lui-même n’est pas intervenu : les experts soupçonnent qu’il était distrait.

Après l’accident, le gouvernement américain étudie ce système de conduite autonome. Une des plus grandes associations américaines de consommateurs, Consumer Reports, demande entre-temps d’interdire Autopilot jusqu’à ce qu’il soit devenu suffisamment sûr. L’organisation affirme que le nom « Autopilot » est trompeur et inapproprié. Selon elle, les clients de Tesla sont considérés comme des cobayes pour ce système.

Le magazine Business Insider trouve que « Autopilot » ne doit pas être considéré comme un système de conduite autonome, mais comme une technologie qui sert à augmenter la sécurité en voiture. A l’instar des ceintures de sécurité, des airbags et de la ABS qui en leur temps, ont rendu les voitures plus sûres, Autopilot poursuit cette lancée, mais va une étape plus loin.

Les propriétaires de Tesla continuent à défendre le système et regrettent le malentendu : pour eux, il ne s’agit donc pas d’un système de conduite parfaitement autonome. Quant à Tesla, il compte développer le système Autopilot en obligeant le conducteur à garder ses mains sur le volant.