el más reciente

― Advertisement ―

Relacionada

Toyota vende este vehículo eléctrico en China por 15.000 dólares y...

Puede que Toyota lo niegue, pero depende cada vez más de repuestos locales para competir en el enorme mercado de vehículos eléctricos de China....
spot_img
HomeAutomóvilEl exjefe de vehículos autónomos de Uber choca su Tesla con FSD...

El exjefe de vehículos autónomos de Uber choca su Tesla con FSD y expone un problema de supervisión

Raffi Krikorian, director de tecnología de Mozilla y exjefe de la división de vehículos autónomos de Uber, destrozó su Tesla Model X mientras utilizaba la “conducción totalmente autónoma” en una calle residencial. Sus hijos estaban en el asiento trasero.

En un nuevo disquisición publicado en The Atlantic, Krikorian analiza el incidente y ofrece lo que podría ser la crítica más informada hasta el momento del problema fundamental con el enfoque de Tesla con destino a la autonomía “supervisada”, por parte de cierto que fielmente construyó sistemas de conducción autónoma para ganarse la vida.

el incidente

Krikorian describe un alucinación dominical que había hecho cientos de veces: llevando a su hijo a una reunión de Boy Scouts por calles residenciales del Ámbito de la Bahía. Su Tesla estaba en modo FSD y el sistema funcionaba sin problemas hasta que de repente dejó de estarlo.

Cuando el Model X entró en una curva, el FSD pareció perder el rumbo, Krikorian describe que la rueda se sacudía erráticamente y el automóvil desaceleraba sin previo aviso. Agarró el volante, pero no pudo recuperarse a tiempo. El automóvil chocó contra un tapia de concreto y quedó destrozado. Krikorian sufrió una conmoción cerebral, rigidez en el cuello y días de dolores de habitante. Sus hijos resultaron ilesos.

Anuncio: desplácese para ver más contenido

Lo que hace que este relato sea particularmente sorprendente son los informes de Krikorian. En el Centro de Tecnologías Avanzadas de Uber, dirigió el equipo de construcción de vehículos autónomos y capacitó a conductores humanos de seguridad sobre exactamente cuándo y cómo intervenir cuando equivocación un sistema de conducción autónoma. Durante sus dos abriles al frente de la división, los primeros programas piloto de Uber no tuvieron lesiones.

A pesar de toda esa experiencia, la FSD todavía lo consiguió.

Escribe que comenzó a usar FSD en las autopistas, donde tenían sentido tener marcadores de carril claros y un tráfico predecible. Luego lo probó en carreteras locales, funcionó correctamente y se convirtió en costumbre. Antaño del incidente, tenía las manos en el volante. Estaba haciendo lo que Tesla pide a los conductores: monitorear, no conducir. Pero como él mismo dice, el sistema lo había condicionado a tener fe en él.

Posteriormente del incidente, su nombre apareció en el mensaje del seguro. No el de Tesla. Así es como funciona cada incidente FSD según el situación reglamentario contemporáneo, el sistema de Tesla está clasificado como Nivel 2, lo que significa que el conductor es responsable en todo momento.

Krikorian igualmente plantea un punto preocupante sobre las prácticas de datos de Tesla. El automóvil registra constantemente la posición de las manos del conductor, el tiempo de reacción y el seguimiento visor, y Tesla ha utilizado estos datos a posteriori de accidentes para echarle la error a los conductores. Mientras tanto, los conductores que solicitan sus propios datos dicen que sólo han recibido fragmentos. En el histórico caso de homicidio por negligencia de Florida que resultó en un veredicto de $243 millones, los demandantes tuvieron que contratar a un hacker para recuperar evidencia crítica del chip de computadora del transporte accidentado porque Tesla afirmó que no se podían encontrar los datos.

El problema de la supervisión

La parte más valiosa del disquisición de Krikorian es su disección de por qué la conducción autónoma “supervisada” no funciona fundamentalmente, un tema que hemos cubierto ampliamente en Electrek.

Su argumento central: Tesla está pidiendo a los humanos que supervisen un sistema que está diseñado específicamente para que la supervisión parezca inútil. Como él dice, una máquina poco confiable te mantiene alerta, y una máquina perfecta no necesita supervisión, sino que funciona. casi Crea perfectamente una trampa en la que los conductores confían en él lo suficiente como para dejar de prestar atención.

La investigación respalda esto. Los psicólogos lo llaman “disminución de la vigilancia”, monitorear un sistema casi valentísimo es hastiado, el aburrimiento lleva a alejarse y los conductores necesitan de 5 a 8 segundos para retornar a conectarse mentalmente a posteriori de que un sistema automatizado les devuelve el control. Pero las emergencias se desarrollan más rápido que eso.

Krikorian cita un estudio del Instituto de Seguros para la Seguridad en las Carreteras que muestra que a posteriori de sólo un mes de usar el control de crucero adaptativo, los conductores tenían más de seis veces más probabilidades de mirar sus teléfonos. El propio sitio web de Tesla advierte a los usuarios de FSD que no se vuelvan complacientes, pero el buen funcionamiento del sistema entrena activamente esa complacencia.

Señala dos accidentes correctamente conocidos para ilustrar la matemática irrealizable. En el incidente de Mountain View de 2018 en el que murió el ingeniero de Apple, Walter Huang, el conductor tuvo seis segundos antiguamente de que su Tesla se desviara con destino a una mediana de concreto. Nunca tocó el volante. En el incidente de Uber de 2018 en Tempe, Arizona, los sensores detectaron a un peatón con 5,6 segundos de advertencia, pero el conductor de seguridad miró con destino a hacia lo alto cuando quedaba menos de un segundo.

En el caso del propio Krikorian, sí tomó medidas, pero se le pidió que pasara de pasajero a piloto en una fracción de segundo, superando meses de acondicionamiento. Los registros muestran que hizo volver la rueda. No muestran las matemáticas imposibles de esa transición.

El patrón que describe Krikorian debería resultarle descendiente a cualquiera que haya seguido las controversias sobre el FSD de Tesla: condicionar al conductor para que confíe en el sistema, deteriorar su vigilancia durante meses de funcionamiento fluido, luego señalar los términos de servicio y culparlo cuando poco se rompe. Cuando FSD funciona, Tesla recibe crédito. Cuando no es así, se error al conductor.

Krikorian igualmente contrasta el enfoque de Tesla con un ejemplo sobresaliente de responsabilidad de un competidor. En julio de 2025, BYD anunció que pagaría los daños causados ​​por accidentes que involucraran su función de estacionamiento autónomo: no se requiere aliciente de seguro ni impacto en el historial del conductor. Es un ejemplo establecido, pero demuestra que la responsabilidad compartida entre el fabricante de automóviles y el conductor es una selección, no una imposibilidad.

La opinión de Electrek

Llevamos abriles diciendo esto: el FSD de Tesla se vuelve más peligroso a medida que perfeccionamiento. Cuanto más fluido se vuelve, más adormece a los conductores con una falsa sensación de seguridad, y más difícil se vuelve reaccionar cuando el sistema inevitablemente comete un error.

Lo que hace que el relato de Krikorian sea tan convincente es que no es un crítico cualquiera de Tesla. Construyó coches autónomos en Uber. Capacitó a conductores de seguridad sobre protocolos de intervención. Entendió el aventura intelectualmente y aun así quedó condicionado a la complacencia. Si cierto con ese nivel de experiencia puede ser atrapado, el propietario promedio de un Tesla no tiene ninguna posibilidad.

La epíteto “supervisado” es un escudo reglamentario, no una posibilidad de seguridad. Tesla sabe que los humanos no pueden supervisar de modo confiable un sistema que funciona el 99% del tiempo; la investigación es clara y Krikorian lo expone claramente. Sin bloqueo, la empresa continúa vendiendo “conducción totalmente autónoma” y señala la signo pequeña cuando las cosas van mal.

Con la NHTSA investigando actualmente más de 80 incidentes de FSD que cubren 2,88 millones de vehículos y una creciente avalancha de demandas tras el veredicto de 243 millones de dólares en Florida, la presión sobre Tesla para que en realidad comparta la responsabilidad por las fallas de su sistema está aumentando. BYD demostró que es posible. La pregunta es si Tesla alguna vez optará por la rendición de cuentas en ocasión de echar la error.

Agregue Electrek como fuente preferida en Google
Agregue Electrek como fuente preferida en Google

Leer  El Ford Puma Gen-e eléctrico finalmente está aquí y es mejor que nunca

El más popular

spot_img