el más reciente

― Advertisement ―

Relacionada

Ford pide a la administración Trump que permita la tecnología china...

En lo que sería un “momento central”, el director ejecutante de Ford, Jim Farley, habría hablado con la despacho Trump sobre la posibilidad de...
spot_img
HomeAutomóvilTesla 'Full Self-Driving' intentó llevar a su propietario a un lago, según...

Tesla ‘Full Self-Driving’ intentó llevar a su propietario a un lago, según muestra un video viral

El propietario de un Tesla dice que su automóvil intentó llevarlo a un albufera mientras usaba el extremo software de “conducción totalmente autónoma” del fabricante de automóviles. El incidente, capturado en video y publicado en las redes sociales, se ha vuelto virulento con más de 1 millón de visitas, sumándose a una inventario creciente de casos extremos peligrosos de FSD que plantean serias dudas sobre la preparación del sistema.

Daniel Milligan publicó el vídeo en X el sábado, etiquetando tanto a Tesla como a Ashok Elluswamy, cabecilla de IA del piloto maquinal de Tesla, y escribió: “¡Mi Tesla intentó llevarme a un albufera hoy!”. El transporte ejecutaba la lectura 14.2.2.4 de FSD (compilación 2025.45.9.1), una de las últimas actualizaciones que Tesla ha introducido en su flota. La publicación acumuló más de 1,2 millones de visitas, 9.000 me gusta y cientos de publicaciones repetidas en cuestión de horas:

Otro peligroso incidente de FSD en una larga fila

El incidente del albufera es el extremo de un patrón de fallas alarmantes de “conducción totalmente autónoma” que Electrek ha estado siguiendo durante primaveras. En mayo de 2025, un Tesla con FSD se salió repentinamente de la carretera y volcó un automóvil en un montaña que el conductor dijo que no podía evitar. En diciembre, un conductor de Tesla en China chocó de frente contra otro transporte durante una transmisión en vivo que demostraba las características del FSD, el sistema inició un cambio de carril con destino a el tráfico que venía en sentido contrario.

Dos influencers de Tesla que intentaron el tan publicitado delirio FSD de costa a costa de Elon Musk ni siquiera lograron salir de California ayer de chocar contra los escombros de la carretera.

Anuncio: desplácese para ver más contenido

La compilación FSD v14.2.2.4 involucrada en el incidente del albufera se lanzó a fines de enero de 2026. Tesla no publicó nuevas notas de la lectura para esta lectura en comparación con la v14.2.2.3 preparatorio, caracterizándola como una compilación pulida y afinada. La serie v14.2 actualizó el codificador de visión de red neuronal de Tesla para ofrecer características de anciano resolución y anciano manejo para vehículos de emergencia, pero claramente persisten casos extremos peligrosos.

Bajo indagación regulatorio

El incidente llega cuando el sistema FSD de Tesla enfrenta una creciente presión regulatoria. En octubre de 2025, la NHTSA inició una amplia investigación sobre 2,88 millones de vehículos Tesla posteriormente de conectar 58 incidentes con FSD, incluidos 14 accidentes y 23 lesiones. La investigación se centra específicamente en FSD que se salta semáforos en rojo y conduce en carriles opuestos de tráfico, el tipo de fallas fundamentales que no deberían ocurrir en un sistema por el que Tesla cobra $99 por mes.

La NHTSA igualmente abrió una investigación separada sobre el hecho de que Tesla no informó adecuadamente los accidentes del piloto maquinal y el FSD a los reguladores de modo oportuna. Ha habido más de 50 muertes relacionadas con accidentes que involucraron los sistemas de audiencia al conductor de Tesla (piloto maquinal y FSD).

Mientras tanto, el software Robotaxi “no supervisado” de Tesla en Austin ha demostrado ser todo menos sin supervisión. Hoy publicamos una puesta al día de estado del software Robotaxi 8 meses posteriormente del extensión.

La opinión de Electrek

Es casi como si Tesla hubiera estado entrenando la última puesta al día de FSD en este episodio de The Office.

Seguimos diciéndolo y incidentes como este lo siguen demostrando: la “conducción autónoma total” de Tesla no debe comercializarse como tal. Un sistema que intenta llevarte a un albufera no es “totalmente autónomo” según ninguna definición justo de esas palabras.

El problema no es sólo que el FSD cometa errores, todos los sistemas de audiencia al conductor tienen limitaciones. El problema es la brecha entre lo que vende Tesla y lo que efectivamente ofrece FSD.

Tesla trasladó FSD a un maniquí de sólo suscripción en febrero, admitiendo efectivamente que el sistema es un servicio en espacio del activo como se vendió durante primaveras. Musk ha estado prometiendo FSD “sin supervisión” desde 2016 y, sin incautación, aquí estamos en 2026 viendo videos de Teslas intentando nadar.

Como señalamos en nuestra revisión de FSD v14, el sistema es el sistema de Nivel 2 más impresionante del mercado, pero sigue estando allí de lo que Tesla ha estado vendiendo a sus clientes durante casi una lapso. Con las investigaciones de la NHTSA acumulándose y los incidentes que continúan volviéndose virales, los reguladores eventualmente tendrán que arriesgarse si Tesla puede seguir llamando a esto “Conducción totalmente autónoma” mientras los autos de las personas intentan llevarlos a nadar inesperadamente.

Creo que nos acercamos al final de esta era, y el cambio de Tesla a un servicio de sólo suscripción lo presagia.

Si sólo ofrece una suscripción mensual en espacio de un paquete con capacidades futuras, no tiene que prometer que dejará de estar supervisado.

Agregue Electrek como fuente preferida en Google
Agregue Electrek como fuente preferida en Google

Leer  Honda y Nissan se acercan a una fusión de EV para sobrevivir al rápido cambio de la industria hacia el eléctrico

El más popular

spot_img