el más reciente

― Advertisement ―

Relacionada

GM-LG traslada una planta estadounidense de baterías para vehículos eléctricos al...

Ultium Cells Planta de Spring Hill, Tennessee (Fuente: Ultium Cells) Ultium Cells, la empresa conjunta entre Militar Motors y LG Energy Solution, está trasladando parte...
spot_img
HomeAutomóvilTesla dice que el FSD estaba apagado antes del accidente del Cybertruck,...

Tesla dice que el FSD estaba apagado antes del accidente del Cybertruck, pero el video cuenta una historia diferente

Un video virulento de una cámara de tablero muestra un Tesla Cybertruck chocando contra una barrera de concreto en un paso elevado en una autopista de Houston mientras supuestamente utiliza la “conducción totalmente autónoma”. Elon Musk respondió diciendo que los registros de Tesla muestran que el conductor desconectó el sistema 4 segundos antiguamente del impacto.

Los fanáticos de Tesla aprovecharon esto como otro ejemplo más de cómo los medios difunden FUD sobre la compañía. Pero ver el vídeo positivo cuenta una historia más matizada y más preocupante sobre el real problema de la FSD.

el choque

El incidente ocurrió el 18 de agosto de 2025 en la autopista 69 Eastex de Houston. Justine Saint Amour conducía su Cybertruck con la función “Full Self-Driving” activada cuando el transporte se acercaba a un paso elevado en forma de Y. La carretera obligó al transporte a tomar una curva a la derecha.

En cambio, las imágenes de la cámara del tablero, publicadas por el escritorio de abogados del demandante, Hilliard Law, y transmitidas por Fox News, muestran al Cybertruck avanzando a toda velocidad a lo que parece ser la velocidad de una autopista, atravesando los conos de tráfico que separan los carriles y chocando contra la barrera de concreto en el borde del paso elevado. Partes del transporte salieron despedidas tras el impacto.

Anuncio: desplácese para ver más contenido

Saint Amour llevaba a su hijo de 1 año en el asiento trasero. La pupila resultó ilesa, pero Saint Amour sufrió dos hernias discales en la parte depreciación de la espalda, una en el cuello, un esguince en los tendones de la muñeca y paralización y cariño en la mano derecha. Ella está demandando a Tesla por más de $1 millón, y la demanda incluye 16 acusaciones de conducta negligente y la inusual afirmación de que Tesla fue negligente al retener a Elon Musk como director ejecutor.

La respuesta de Musk y la defensa de los 4 segundos

Posteriormente de que el video se volvió virulento, Musk publicó en X que “los registros muestran que el conductor desconectó el piloto involuntario cuatro segundos antiguamente de fallar”. Los propagandistas de Tesla siguieron esto, enmarcando el incidente como prueba de que los medios culpan injustamente al FSD por los accidentes que ocurren con la conducción manual.

Pero este ajuste pierde por completo el punto.

El abogado de Saint Amour, Bob Hilliard, reconoció que su cliente desconectó el sistema antiguamente del impacto. La razón por la que lo desconectó es el detalle crítico: el sistema ya estaba fallando. Como dijo Hilliard, intentó tomar el control, pero ya era demasiado tarde para corregir la trayectoria del transporte.

Mira el vídeo de cerca. El Cybertruck se acerca a la curva del paso elevado a toda velocidad sin signos de desacelerar o rodar. El sistema parece acontecer perdido completamente la curva. Para cuando el conductor se dio cuenta de que FSD no iba a rodar correctamente a esa velocidad y agarró el volante, el transporte ya estaba comprometido en un camino en ruta recta con destino a la barrera. Cuatro segundos no es tiempo suficiente para corregir un camión de varias toneladas que viaja a velocidad de autopista con destino a un pared de concreto, dependiendo de su nivel de conducción.

El real problema: el exceso de confianza y la trampa de la supervisión

Este incidente es un ejemplo de obra de texto de lo que hemos estado documentando en Electrek durante primaveras, el defecto fundamental en el enfoque de Tesla con destino a la autonomía “supervisada”.

Ayer mismo cubrimos cómo el exjefe de vehículos autónomos de Uber, Raffi Krikorian, estrelló su Tesla en FSD y escribimos un experimientación condenatorio en The Atlantic sobre el problema de la “disminución de la vigilancia”. La investigación es clara: los conductores necesitan de 5 a 8 segundos para retornar a conectarse mentalmente a posteriori de que falta un sistema automatizado. Las emergencias se desarrollan más rápido que eso.

La “conducción totalmente autónoma” de Tesla funciona lo suficientemente correctamente, la longevo parte del tiempo, como para que los conductores confíen en ella. Esa confianza es el problema. Cuando el sistema falta repentinamente, como ocurrió al acercarse a esta curva de paso elevado, el conductor queda atrapado en la peor posición posible: no completamente activado, obligado a procesar lo que está sucediendo, tomar una valentía y ejecutar una corrección en un transporte que ya se dirige con destino a el desastre.

El hecho de que el conductor desconectara el FSD 4 segundos antiguamente del choque no prueba que el sistema fuera inocente. La prueba es exactamente lo contrario: la conductora se dio cuenta de que el FSD estaba fallando y trató desesperadamente de corregirlo, pero el sistema ya la había puesto en una situación irrecuperable.

Este es el mismo patrón que documentamos en noviembre cuando escribimos sobre el problema del “FSD de Schrödinger” de Tesla: cuando el FSD funciona, Tesla se atribuye el mérito. Cuando choca, se tropiezo al conductor.

Un patrón de montaje

Esto está allá de ser un incidente incidental. A principios de este mes, un vídeo virulento mostraba a FSD conduciendo un Tesla a través de barreras de cruce de ferrocarril cerca de un tren que se acercaba. La investigación en curso de la NHTSA sobre FSD ha documentado 80 infracciones de tránsito, incluidos 14 choques y 23 lesiones. Y Tesla acaba de tener que fertilizar una sentencia de 243 millones de dólares por un choque del piloto involuntario, una guarismo que indica con destino a dónde se dirigen los tribunales en estos casos.

Mientras tanto, los vehículos totalmente autónomos de Waymo funcionan sin ninguna supervisión del conductor, en varias ciudades, con un sólido historial de seguridad. Ese es el punto de remisión. No es un sistema que funcione el 99% del tiempo y deje que un humano se encargue del 1% que puede matarlo.

La opinión de Electrek

Los fanáticos de Tesla que utilizan la “desconexión de 4 segundos” como trampa están perdiendo el bosque por los árboles. Sí, el conductor tenía técnicamente el control del transporte en el momento del impacto. Pero ella tenía el control porque el FSD ya estaba fallando al conducir demasiado rápido antiguamente de esta curva cerrada: se dirigía directamente con destino a una barrera de concreto a velocidad de autopista sin señales de corregir.

Todos los que han usado con frecuencia FSD o Autopilot y pintan esta desconexión de 4 segundos como un momento de “te pillé” están siendo disidentes, y eso incluye a Elon Musk.

Tengo decenas de miles de millas en FSD y he experimentado que el sistema toma una curva demasiado rápido al menos media docena de veces.

Hemos dicho esto antiguamente y lo seguiremos diciendo: el problema con FSD no es lo que sucede cuando el conductor está prestando atención y el sistema funciona. El problema es lo que sucede cuando el sistema te da todas las razones para encargar en él y de repente no funciona. El conductor tiene que indagar el decisión, evaluar la situación, osar una corrección y ejecutarla físicamente, todo en menos tiempo del que necesita el sistema para crear el peligro.

Los propagandistas de Musk y Tesla pueden señalar los registros todo lo que quieran. El video muestra lo que efectivamente importa: FSD acercándose a una curva de autopista habitual a toda velocidad sin ninguna indicación de que iba a tomarla. Ese es el fracaso. Todo lo que ocurrió a posteriori, incluida la retirada presa del pánico, es consecuencia de ese fracaso.

El planteamiento de que se trataba de “conducción manual, no FSD” es técnicamente cierto durante los últimos 4 segundos y profundamente deshonesto acerca de la secuencia completa de eventos. Es exactamente el tipo de articulación de rol de responsabilidad que los tribunales rechazan cada vez más, como deja claro el veredicto de 243 millones de dólares. Tesla creó el sistema, lo vendió como “conducción totalmente autónoma” y se beneficia de la confusión. En algún momento, tiene que hacerse cargo las consecuencias.

Agregue Electrek como fuente preferida en Google
Agregue Electrek como fuente preferida en Google

Leer  Jaguar presentará el último prototipo totalmente eléctrico I-Pace en Ginebra

El más popular

spot_img