Elon Musk réalise à l’instant que les voitures autonomes sont un “problème difficile”
Le PDG de Tesla, Elon Musk, admet enfin qu’il a sous-estimé à quel point il est difficile de développer une voiture autonome sûre et fiable. Ce à quoi toute la communauté des ingénieurs s’est levée pour dire « Non duh ».
Ou du moins c’est ainsi que cela aurait dû se passer dans un monde juste. Au lieu de cela, tous les flagorneurs de Tesla et les embrasseurs de cul sur Twitter ont dit à Musk de continuer le bon travail, qu’ils croyaient en lui, et l’ont encouragé à se dépêcher et à déployer la dernière version de son logiciel “Full Self-Driving” qui, il convient de souligner, ne permet pas à un véhicule Tesla de se conduire sans l’intervention du conducteur.
Musk a une longue histoire de trop prometteur et de sous-livraison
Musk a une longue histoire de trop prometteur et de sous-livraison en ce qui concerne le logiciel dit « Full Self-Driving » de son entreprise. Il l’a fait en 2018, lorsqu’il a promis que le V9 « tant attendu » (version 9) commencerait à être déployé en août. Il l’a fait à nouveau en 2019, proclamant que « dans un an », il y aurait « plus d’un million de voitures avec une conduite entièrement autonome, des logiciels, tout ».
Il était de retour à à nouveau le week-end dernier, promettant que « la version bêta de FSD 9 sera bientôt disponible », avec un « je jure ! » ajouté. juste au cas où vous auriez des doutes sur sa solennité.
Haha, la version bêta de FSD 9 est bientôt disponible, je le jure !
< br>La conduite autonome généralisée est un problème difficile, car elle nécessite de résoudre une grande partie de l’IA du monde réel. Je ne m’attendais pas à ce que ce soit si difficile, mais la difficulté est évidente rétrospectivement.Rien n’a plus de degrés de liberté que la réalité.
— Elon Musk (@elonmusk) 3 juillet 2021
Il ne fait aucun doute que Tesla est plus disposé que ses concurrents à tester des versions bêta de sa fonction d’assistance à la conduite Autopilot sur ses clients dans le but de collecter des données et de résoudre tout bogue dans le système. Et les clients de Tesla sont généralement d’accord avec cela, inondant régulièrement les mentions de Musk suppliant d’être sur la liste blanche pour la version actuelle de Full Self-Driving. Cela a contribué à la réputation publique de Tesla en tant que leader de la conduite autonome, bien que ses véhicules soient continuellement en deçà de ce que la plupart des experts s’accordent à définir comme une voiture autonome.
Tesla affirme que le pilote automatique est sûr – il publie des rapports trimestriels avec des données signalées de manière sélective qui, selon lui, le prouvent – mais qu’il nécessite également une contribution constante du conducteur pour fonctionner. Pendant ce temps, des sociétés audiovisuelles comme Waymo ont de vrais véhicules sans conducteur sur les routes publiques pour conduire les passagers. Waymo, comme pratiquement toutes les entreprises audiovisuelles, utilise une combinaison de différents capteurs, tels que radar, lidar et caméras, pour garantir des redondances en cas de défaillance du système. Tesla est récemment passé à un système de détection uniquement par caméra. Le contraste entre Tesla et toutes les autres entreprises poursuivant la technologie de conduite autonome ne pourrait pas être plus frappant.
Pour ma part, je suis tout à fait pour que Musk prenne aussi longtemps qu’il le veut
Pour ma part, je suis tout à fait pour que Musk prenne autant de temps qu’il le souhaite avec la sortie de la V9. Laissez le gâteau cuire aussi longtemps qu’il le faudra, à mon avis, surtout après avoir visionné des vidéos comme celle qui vient de sortir de Chine d’une Tesla Model 3 en pilote automatique qui ne parvient absolument pas à prendre un virage serré et s’écrase dans un fossé.
Un utilisateur anonyme de Twitter qui utilise la poignée @greentheonly pour publier des « hacks » du pilote automatique de Tesla, a recréé le scénario pour montrer comment la fonction d’assistance au conducteur de l’entreprise se débat avec ces virages serrés. Avec une superposition de l’affichage du pilote automatique de Tesla dans le coin de l’écran, greentheonly montre comment le véhicule « met en fait diverses alertes avant l’éventuelle « reprise que nous abandonnons ». D’autres fois, la voiture ralentit suffisamment et parvient à prendre le virage en toute sécurité.
Donc en ce qui concerne le récent crash chinois avec une vidéo où AP sort de la route dans des virages serrés :
J’avais depuis longtemps prévu de faire une démo d’une condition similaire, mais j’ai toujours oublié et je suppose qu’il vaut mieux tard que jamais.
C’est en fait très facile à reproduirehttps://t.co/B2Ip0G17Ur— vert (@greentheonly) Juillet 4, 2021
Un système qui ne parvient pas à prendre un virage serré dans « la moitié des cas » ne devrait pas inspirer une grande confiance ! Bien au contraire en fait. Le nombre d’enquêtes ouvertes sur des accidents de véhicules impliquant Tesla Autopilot semble augmenter en relation inverse avec les attentes des clients quant à la capacité de Musk à tenir les promesses qu’il fait (et rompt) depuis des années maintenant.
Musk n’est pas le seul à se rendre compte que les voitures autonomes sont difficiles. Presque toute l’industrie prédisait que nos routes seraient désormais envahies de voitures autonomes, pour admettre plus tard qu’elles ont sous-estimé à quel point il était compliqué de faire en sorte que les voitures se conduisent de manière sûre et fiable.
À qui nous pouvons maintenant dire à Musk, “Bienvenue à la fête, mon pote.”
La source:Elon Musk réalise à l’instant que les voitures autonomes sont un “problème difficile” | xComputer