07.07.21
15:00

Elon Musk ne s'attendait pas à ce que développer des voitures autonomes soit "si difficile"

"Lorsque des voitures autonomes sont impliquées dans des incidents, la question de la responsabilité légale de l'accident reste encore à déterminer"

Après que le calendrier de Tesla pour le dernier logiciel de "conduite autonome complète" a dérapé, le patron Elon Musk admet finalement qu'il a sous-estimé la difficulté de développer une voiture autonome sûre et fiable. L'accident mortel d’une Tesla au Texas en avril dernier en est la preuve. Un accident causé par la défaillance du logiciel d'aide à la conduite, le Full Self Driving (FSD). 

Musk a une longue histoire de "surpromesses" et de sous-délivrances lorsqu'il s'agit du logiciel FSD, "conduite autonome intégrale", de son entreprise. Il l'a fait en 2018, lorsqu'il a promis que la V9 (version 9) commencerait à être déployée en août. Il l'a encore fait en 2019, en proclamant que dans un an, il y aurait "plus d'un million de voitures avec une conduite autonome complète, le logiciel, tout."

Il a même récidivé en fin de semaine dernière, promettant que "la version bêta de la DSE 9 sera bientôt expédiée", en ajoutant un "Je le jure !"

 

"Le pilotage automatique est assuré"

Bien que le constructeur chinois de véhicules électriques XPeng, concurrent affiché de Tesla dans son pays, a levé mercredi quelque 1,5 milliard d'euros lors de son entrée à la Bourse de Hong Kong, les clients de Tesla sont convaincus que l’entreprise est plus apte à tester des versions bêta de sa fonction d'aide à la conduite Autopilot pour éliminer les éventuels bugs du système.

Cette conviction a d’ailleurs contribué à la réputation publique de Tesla en tant que leader de la conduite autonome, bien que ses véhicules ne soient pas toujours à la hauteur de ce que la plupart des experts considèrent comme une voiture autonome. En attendant, Tesla affirme que le pilotage automatique est assuré. Il publie des rapports trimestriels avec des données rapportées de manière sélective qui le prouvent mais qu'il nécessite aussi une intervention constante du conducteur pour fonctionner.

 

Serons-nous assurés?

Elon Musk n'est pas le seul à s'être rendu compte en ce moment que les voitures autonomes sont difficiles à intégrer sur nos routes. Qu’arrivera-t-il en cas d’incidents comme en avril? Qui sera responsable? Serons-nous assurés?

Selon Al Pijnacker, Directeur Automotive chez Aon Belgium, il semblerait que le débat est encore ouvert mais il est moins prioritaire qu’en 2018. "Ce fut le climax cette année-là. Ce que l’on peut en retenir, c’est qu’avec les véhicules autonomes, on s'attend à ce que les logiciels et les fabricants de véhicules soient responsables de toute collision responsable."

À long terme, les consommateurs doivent s'attendre à des niveaux d'autonomie plus grands. Ce qui pourrait aboutir à des véhicules entièrement autonomes qui ne nécessiteraient pas de conducteur de secours. Et "cela risque d’être plus compliqué en pratique."

Le professionnel ajoute: "Le désir de supprimer l'erreur humaine sur les routes est compréhensible. Mais lorsque des voitures autonomes sont impliquées dans des incidents, la question de la responsabilité légale de l'accident reste encore à déterminer."

C.P.

Partager cet article

En lien avec l'article