La carrera por la conducción autónoma tiene tres frentes: software, hardware y regulatorio. Durante primaveras, hemos gastado a Tesla intentar fugarse camino por la fuerza bruta en torno a la “conducción totalmente autónoma (FSD)” con su propio hardware personalizado, mientras que el resto de la industria automotriz se alinea cada vez más detrás de NVIDIA.
Ahora que sabemos que el nuevo chip AI5 de Tesla se retrasa y no estará en los vehículos hasta 2027, vale la pena comparar los dos chips “autónomos” más dominantes en la ahora: el postrer Hardware 4 (AI4) de Tesla y el Drive Thor de NVIDIA.
Aquí hay una tabla que compara los dos chips con las mejores especificaciones posibles que pude encontrar. El desmontaje de greentheonly fue particularmente útil. Si encuentra cosas que cree que no son exactas, no dude en comunicarse con:
| Característica/concreción | Tesla AI4 (Hardware 4.0) | Nvidia conduce thor (agx/jetson) |
|---|---|---|
| Desarrollador / Arquitecto | Tesla (interno) | Nvidia |
| Proceso de fabricación | Samsung 7 nm (clase 7LPP) | TSMC 4N (clase personalizada de 5 nm) |
| Estado de dispersión | En producción (remisión desde 2023) | En producción desde 2025 |
| Edificio de CPU | ARM Cortex-A72 (heredado) | ARM Neoverse V3AE (límite de servidor) |
| Recuento de núcleos de CPU | 20 núcleos (5× grupos de 4 núcleos) | 14 núcleos (configuración Jetson T5000) |
| Rendimiento de la IA (INT8) | ~100–150 TOPS (sistema de doble SoC) | 1.000 TOPS (por ficha) |
| Rendimiento de la IA (FP4) | No compatible / no divulgado | 2000 TFLOPS (por chip) |
| Mecanismo de procesamiento neuronal | 3× núcleos NPU personalizados por SoC | Núcleos tensores Blackwell + motor transformador |
| Tipo de memoria | GDDR6 | LPDDR5X |
| Ufano del bus de memoria | 256 bits | 256 bits |
| Ufano de cuadrilla de memoria | ~384 GB/s | ~273 GB/s |
| Capacidad de memoria | ~Sistema característico de 16 GB | Hasta 128 GB (Supersónico Thor) |
| Consumo de energía | Est. 80-100W (sistema) | 40W – 130W (configurable) |
| Soporte de cámara | Cámaras Tesla patentadas de 5 MP | Escalable, soporta 8MP+ y GMSL3 |
| Características especiales | Pleonasmo de doble SoC en una placa | Motor de transformador nativo, NVLink-C2C |
La diferencia más sorprendente desde el principio es el proceso de fabricación. NVIDIA está lanzando todo a Drive Thor, utilizando el proceso 4N de vanguardia de TSMC (un nodo personalizado de clase 5 nm). Esto les permite incorporar la nueva construcción Blackwell, que es esencialmente la misma tecnología que impulsa los centros de datos de IA más avanzados del mundo.
Tesla, por otro banda, hizo un movimiento que podría sorprender a los guerreros de las hojas de especificaciones. Los desmontajes confirman que AI4 se sostén en el proceso de 7 nm de Samsung. Esto es adulto, confiable y mucho más asequible que los nodos de última reproducción de TSMC.
Cuando nos fijamos en la potencia de cálculo, NVIDIA afirma la asombrosa guarismo de 2000 TFLOPS para Thor. Pero hay un problema. Ese número utiliza precisión FP4 (punto flotante de 4 bits), un nuevo formato diseñado específicamente para los modelos Transformer utilizados en IA generativa.
Se estima que el AI4 de Tesla alcanzará entre 100 y 150 TOPS (INT8) en su sistema redundante de doble SoC. Sobre el papel, parece una matanza, pero Tesla hizo un compromiso de ingeniería muy específico que nos dice exactamente qué estaba consumiendo su software: el ufano de cuadrilla de la memoria.
Tesla cambió de LPDDR4 en HW3 a GDDR6 en HW4, la misma memoria que consume mucha energía que se encuentra en las tarjetas gráficas (GPU) para juegos. Esto le da a AI4 un ufano de cuadrilla de memoria masivo de aproximadamente 384 GB/s, en comparación con los 273 GB/s de Thor (en la configuración Jetson de un solo chip) usando LPDDR5X.
Esto sugiere que el enfoque de Tesla de sólo visión, que ingiere cantidades masivas de vídeo sin procesar de cámaras de entrada resolución, estaba hambriento de datos.
Según los comentarios de Elon Musk de que el chip AI5 de Tesla tendrá 5 veces el ufano de cuadrilla de la memoria, parece que todavía podría ser el cuello de botella de Tesla.
Aquí es donde verdaderamente se nota la reducción de costos de Tesla. AI4 todavía se ejecuta en núcleos ARM Cortex-A72, una construcción que tiene casi una decenio. Aumentaron el número de núcleos a 20, pero sigue siendo tecnología antigua.
Mientras tanto, NVIDIA Thor utiliza ARM Neoverse V3AE, una CPU de nivel de servidor diseñada explícitamente para el transporte actual definido por software. Esto le permite a Thor ejecutar no solo la pila de conducción autónoma, sino todo el sistema de información y entretenimiento, el tablero y potencialmente incluso un asistente de inteligencia industrial en el automóvil, todo en un solo chip.
Thor ha opuesto muchos interesados, especialmente entre los competidores de vehículos eléctricos de Tesla como BYD, Zeekr, Lucid, Xiaomi y muchos más.
La opinión de Electrek
Hay una cosa que no está ahí: el precio. Supongo que Tesla apetencia en ese frente, y eso es una gran parte del esquema. Tesla desarrolló un chip que no existía y que necesitaba.
Fue una correr impresionante, pero no convierte a Tesla en un líder increíble en silicio para conducción autónoma.
Tesla está maximizando AI4. Ahora utiliza entreambos chips, lo que hace que sea menos probable que inteligencia los niveles de pleonasmo necesarios para ofrecer una autonomía de nivel 4-5.
Mientras tanto, todavía no tenemos una opción para HW3 y aparentemente AI5 no vendrá a defender el día hasta 2027.
Para entonces, probablemente habrá millones de vehículos en circulación con procesadores NVIDIA Thor.


