Testeurs de Tesla : des pilotes de l’extrême pour la conduite autonome
Imaginez que votre description de poste mentionne « doit supprimer tout sens du devoir légal, de l’éthique morale et de l’humanité » comme responsabilités, postuleriez-vous ? Selon un nouveau rapport, c’est essentiellement le rôle d’un testeur pour Tesla.
Les véhicules autonomes sont l’avenir. Si les entreprises technologiques ont leur mot à dire, les voitures autonomes seraient le seul avenir. Beaucoup d’entre nous vivent dans la réalité, cependant, et comprennent que le logiciel n’est nulle part près de là où il devrait être pour ce niveau d’automatisation de science-fiction. Mais ceux qui ont les fonds continueront d’essayer d’accélérer le processus, même si cela signifie des tests bêta sur les routes publiques avec nous tous comme cobayes.
Le Projet Rodeo de Tesla : des essais extrêmes pour la conduite autonome
Le magazine Business Insider a révélé des détails sur une équipe spécialisée de testeurs de Tesla surnommée Projet Rodeo. Cette équipe de test est formée pour repousser les limites du logiciel Full Self-Driving (FSD) et Autopilot du constructeur automobile. Quelle est exactement la limite ? Les accidents. Mais la règle semble être de se rapprocher le plus possible d’une collision avec quelque chose ou quelqu’un. Plus la situation est effrayante, mieux c’est.
« Vous êtes pratiquement en état d’adrénaline pendant toute la durée du quart de huit heures », a déclaré un ancien testeur. « Il y a ce sentiment que vous êtes sur le bord de quelque chose qui pourrait mal tourner. »
Neuf pilotes actuels et anciens du Projet Rodeo et trois ingénieurs Autopilot de Californie, de Floride et du Texas ont été interviewés. La plupart ont demandé à rester anonymes. Les situations décrites sont révélatrices mais pas surprenantes. Bien que les accidents liés au FSD aient été largement documentés, aucun des interviewés n’y a été impliqué.
Des situations extrêmes pour tester la technologie
Le Projet Rodeo est un groupe de test composé de petites équipes. Par exemple, l’équipe « manuel d’or » conduit de manière conventionnelle, respecte le code de la route et n’utilise aucune fonction d’assistance à la conduite. À l’opposé de ce spectre se trouve l’équipe « intervention critique ». Avec plus de passagers que de conducteurs, les testeurs en intervention critique laissent le logiciel gérer tous les aspects de la conduite. Ils n’interviennent que pour éviter une collision.
Une partie de la raison pour laquelle les testeurs attendent le plus longtemps possible pour reprendre le contrôle manuel est que cela donne au logiciel le temps de réagir pour prendre la bonne ou la mauvaise décision. Plus de données collectées, en particulier dans des scénarios réels, facilite la tâche des ingénieurs pour ajuster et mettre à jour le logiciel.
Les risques de la conduite autonome
Cela conduit cependant à des véhicules autorisés à brûler des feux rouges, à franchir des lignes jaunes, à ne pas respecter les panneaux d’arrêt et à dépasser les limites de vitesse, le tout sur des routes publiques. Même si une situation devient inconfortable pour le conducteur, les superviseurs diraient qu’ils ont repris le contrôle trop tôt. Ainsi, les conducteurs du Projet Rodeo, même ceux dans des rôles d’intervention non critique, se sont sentis obligés de maintenir des situations de conduite risquées ou parfois de les créer pour tester le logiciel et garder leur emploi.
John Bernal, un ancien testeur et analyste de données, a déclaré qu’il ne lui a jamais été demandé de violer délibérément la loi pour la collecte de données, mais que cela était fortement suggéré. « Ma formation consistait à attendre que les roues touchent la ligne blanche avant de pouvoir freiner brusquement », a-t-il déclaré.
De plus, certaines courses étaient utilisées uniquement pour former le logiciel à reconnaître et à s’adapter aux « usagers vulnérables de la route », tels que les piétons, les cyclistes et les utilisateurs de fauteuils roulants. Alors qu’il conduisait avec son formateur, un ancien testeur a déclaré que leur véhicule était à trois pieds d’un cycliste avant qu’il ne freine brusquement.
« Je me souviens vivement de ce gars qui sautait de son vélo », a-t-il dit. « Il était terrifié. La voiture lui fonçait dessus, et tout ce que je pouvais faire était d’écraser les freins. » Apparemment, son formateur était en fait content de cela, lui disant que sa réaction tardive était « parfaite » et exactement ce qu’ils voulaient qu’il fasse. « On avait presque l’impression que le but était de simuler un accident imminent et ensuite de l’éviter à la dernière seconde. »
Des enjeux élevés pour la technologie autonome
Cruise et Waymo développent également des voitures autonomes mais affirment mener des tests rigoureux de logiciel dans des environnements contrôlés ou estiment que leurs systèmes autonomes sont « fondamentalement différents » de ceux de Tesla. Hmm, alors pourquoi ces entreprises rencontrent-elles les mêmes problèmes de véhicules ne lisant pas la situation, pour ainsi dire ? Dans le cas de la division de voitures autonomes maintenant fermée d’Uber, parfois les résultats sont mortels.
« Si un parent tient le vélo tout le temps, il ne peut jamais apprendre », a déclaré un ancien ingénieur de Tesla. Finalement, les données sont essentielles. Pour ces entreprises de technologie autonome désormais à la merci des actionnaires, c’est un environnement à haut risque et à forte récompense auquel le public n’a pas adhéré.