Salut les amis passionnés de Tesla et de VE !
Aujourd'hui, on va parler d'une nouveauté qui fait couler pas mal d'encre (et de pixels !) : Tesla a discrètement déverrouillé une fonctionnalité annoncée il y a quelque temps – la possibilité de texter et de conduire !
Oui, vous avez bien lu.
Enfin, sous certaines conditions de circulation, il faut bien le préciser.
[Source : Tesla Introduces Early Eyes-Off Feature; Allows to Text and Drive](https://www.notateslaapp.com/news/3383/tesla-introduces-early-eyes-off-feature-allows-to-text-and-drive)

Dans un échange récent, Elon Musk lui-même a confirmé que la dernière version du FSD (Full Self-Driving), la v14.2.1, permet désormais aux utilisateurs d'utiliser leur téléphone « selon le contexte du trafic environnant ».
C'est un changement assez radical dans la surveillance du conducteur de Tesla, qui était jusqu'alors réputée pour sa stricte vigilance, n'hésitant pas à émettre des avertissements pour un simple coup d'œil un peu trop prolongé sur l'écran central.
Désormais, le FSD v14.2.1 permet d'envoyer un bref SMS dans certaines conditions sans que le système de surveillance ne vous avertisse.
En assouplissant le système de surveillance pour permettre ce comportement dit « eyes-off » (les yeux hors de la route) dans certaines conditions de circulation, Tesla déploie de fait une forme d'autonomie de Niveau 3.
Mais attention, mes amis, il y a un hic de taille : contrairement à ses concurrents qui proposent des fonctionnalités similaires sous des contraintes extrêmement strictes, Tesla n'accepte pas la responsabilité.
Cela crée un vide dangereux.
La voiture vous accorde le privilège de brèves distractions, mais vous conservez 100 % du risque.
Un Niveau 3 non certifié, ça donne quoi ?
Le comportement qu'Elon décrit – permettre l'utilisation du téléphone dans des contextes spécifiques approuvés par le système – est similaire au Drive Pilot de Mercedes-Benz, qui est certifié comme un système de Niveau 3 sur certaines portions d'autoroute en Californie.
Lorsque le Drive Pilot est actif (en dessous de 60 km/h dans les embouteillages, sans intempéries, avec un véhicule devant et sans travaux), Mercedes informe explicitement le conducteur qu'il peut regarder des vidéos ou envoyer des SMS.
Et surtout : la responsabilité incombe à Mercedes pendant toute la durée d'activation du système !
C'est clair, net et précis.
L'approche de Tesla avec le FSD v14.2.1 semble vouloir imiter ce comportement – spécifiquement, les scénarios que le FSD est sûr de pouvoir gérer – mais sans la certification ni l'acceptation de la responsabilité.
Il n'y a aucune approbation réglementaire pour une opération de Niveau 3, et il n'y a actuellement ni étiquettes ni avertissements indiquant que la voiture est désormais pleinement confiante et en contrôle, et, plus important encore, aucun transfert de responsabilité.
Ça, c'est un point crucial qui me fait tiquer.
De nouvelles icônes pour mieux comprendre ?
Une récente découverte dans le code source de Tesla a mis en lumière de nouvelles icônes d'attention requise.
Ces trois icônes représentent différentes quantités d'attention exigée par le conducteur.
Bien que ces icônes ne soient pas encore affichées aux utilisateurs dans les dernières versions du FSD, il semble que Tesla se prépare à montrer aux conducteurs à quel point le FSD est confiant dans la situation actuelle et ce qu'il attend d'eux.
Une bonne nouvelle pour la transparence, espérons-le !
La dure réalité juridique
La nuance d'Elon selon laquelle cela dépend du « contexte » est probablement un clin d'œil à la mosaïque de lois des différents États concernant la conduite distraite.
Dans des États comme la Floride ou le Texas, la loi autorise les conducteurs à utiliser des appareils portables si le véhicule est à l'arrêt, par exemple à un feu rouge ou dans un embouteillage.
Tesla a d'ailleurs déjà assoupli la surveillance du conducteur lorsque le véhicule est à l'arrêt, peu importe l'État où vous vous trouvez.
En fait, dans d'autres États, vous êtes considéré comme conduisant un véhicule même lorsqu'il est à l'arrêt, ce qui rend l'utilisation d'un appareil complètement illégale.
Compliqué, n'est-ce pas ?
Cela crée un véritable piège pour nous, les propriétaires. Votre Tesla ne vous réprimandera peut-être pas si vous envoyez un message dans un embouteillage à Los Angeles, vous indiquant implicitement que c'est sûr.
Mais si un policier vous voit, vous recevrez quand même une amende.
L'agent ne se soucie pas de la version de FSD que vous utilisez, seulement que vous tenez un téléphone, ce qui reste illégal.
La loi est la loi, et elle ne plaisante pas avec ça.
Pour une vraie autonomie "sans les yeux"...
Si Tesla veut vraiment autoriser un comportement « eyes-off », il faut impérativement qu'elle mette en place un filet de sécurité adéquat.
Et les directives d'autonomie, du Niveau 1 au Niveau 5, ont déjà la solution : une Manœuvre à Risque Minimum.
Dans les systèmes L3 certifiés, si les conditions de conduite entièrement autonome prennent fin et que le conducteur est trop distrait pour prendre le contrôle, le système ne se contente pas de vous avertir et de se désengager.
Non, il se range en toute sécurité et attend que vous soyez de nouveau attentif pour reprendre le système en mode L2.
C'est ça, la vraie sécurité !
Ne vous mettez pas en danger, les amis !
Avec le FSD v14.2.1, Tesla nous met effectivement en situation de risque.
En supprimant la friction des avertissements constants et la menace d'une désactivation, ils nous incitent à nous désengager de la route.
Mais à moins que Tesla ne demande formellement des certifications L3 et ne s'accompagne d'un bouclier de responsabilité d'assurance, nous, les conducteurs, devrions traiter cette nouvelle liberté avec une extrême prudence.
N'oubliez pas que Tesla elle-même ne fait toujours pas rouler ses véhicules équipés du FSD sans un superviseur de sécurité attentif, même dans une zone plus petite comme Austin.
Ça devrait nous faire réfléchir, non ?
Selon les propres statistiques de Tesla, une Tesla conduite par un humain est impliquée dans une collision mineure ou majeure tous les 1,2 million de kilomètres (740 000 miles).
Si le FSD a parcouru un long chemin et est meilleur que jamais, il n'est toujours pas aussi sûr qu'un conducteur humain sans supervision.
Ce n'est pas parce que votre véhicule peut faire un trajet de deux heures à l'aéroport et en revenir sans intervention que cela signifie qu'il est aussi compétent qu'un humain.
Si quelqu'un voyait le FSD rouler pendant un an sans aucun incident, il pourrait être tenté de dire que c'est plus sûr qu'un humain.
Cependant, selon les données de la NHTSA, un conducteur moyen a un accident une fois tous les 18 ans (soit environ tous les 368 500 km ou 229 000 miles).
Notre meilleur pari, pour l'instant, est d'utiliser le FSD de manière responsable.
Il offre des capacités que nous n'avons pas, comme la vue sur tous les angles en même temps, mais il exige toujours un conducteur attentif et prêt à prendre le contrôle immédiatement.
Si vous avez besoin de consulter une notification ou d'envoyer un SMS rapide, ça devrait aller, mais gardez votre utilisation du téléphone limitée.
Même si le véhicule permet plus, vous pourriez vous mettre, vous et votre famille, en danger.
La prudence est de mise !
Votre voiture peut vous laisser texter, mais si vous avez un accident ou si un policier vous arrête, ce n'est pas Tesla qui paiera l'amende... c'est vous.
Et c'est important de le garder en tête !