el más reciente

― Advertisement ―

Relacionada

spot_img
HomeAutomóvilTesla AI4 vs. NVIDIA Thor: la brutal realidad de los ordenadores autónomos

Tesla AI4 vs. NVIDIA Thor: la brutal realidad de los ordenadores autónomos

La carrera por la conducción autónoma tiene tres frentes: software, hardware y regulatorio. Durante primaveras, hemos gastado a Tesla intentar fugarse camino por la fuerza bruta en torno a la “conducción totalmente autónoma (FSD)” con su propio hardware personalizado, mientras que el resto de la industria automotriz se alinea cada vez más detrás de NVIDIA.

Ahora que sabemos que el nuevo chip AI5 de Tesla se retrasa y no estará en los vehículos hasta 2027, vale la pena comparar los dos chips “autónomos” más dominantes en la ahora: el postrer Hardware 4 (AI4) de Tesla y el Drive Thor de NVIDIA.

Aquí hay una tabla que compara los dos chips con las mejores especificaciones posibles que pude encontrar. El desmontaje de greentheonly fue particularmente útil. Si encuentra cosas que cree que no son exactas, no dude en comunicarse con:

Característica/concreciónTesla AI4 (Hardware 4.0)Nvidia conduce thor (agx/jetson)
Desarrollador / ArquitectoTesla (interno)Nvidia
Proceso de fabricaciónSamsung 7 nm (clase 7LPP)TSMC 4N (clase personalizada de 5 nm)
Estado de dispersiónEn producción (remisión desde 2023)En producción desde 2025
Edificio de CPUARM Cortex-A72 (heredado)ARM Neoverse V3AE (límite de servidor)
Recuento de núcleos de CPU20 núcleos (5× grupos de 4 núcleos)14 núcleos (configuración Jetson T5000)
Rendimiento de la IA (INT8)~100–150 TOPS (sistema de doble SoC)1.000 TOPS (por ficha)
Rendimiento de la IA (FP4)No compatible / no divulgado2000 TFLOPS (por chip)
Mecanismo de procesamiento neuronal3× núcleos NPU personalizados por SoCNúcleos tensores Blackwell + motor transformador
Tipo de memoriaGDDR6LPDDR5X
Ufano del bus de memoria256 bits256 bits
Ufano de cuadrilla de memoria~384 GB/s~273 GB/s
Capacidad de memoria~Sistema característico de 16 GBHasta 128 GB (Supersónico Thor)
Consumo de energíaEst. 80-100W (sistema)40W – 130W (configurable)
Soporte de cámaraCámaras Tesla patentadas de 5 MPEscalable, soporta 8MP+ y GMSL3
Características especialesPleonasmo de doble SoC en una placaMotor de transformador nativo, NVLink-C2C

La diferencia más sorprendente desde el principio es el proceso de fabricación. NVIDIA está lanzando todo a Drive Thor, utilizando el proceso 4N de vanguardia de TSMC (un nodo personalizado de clase 5 nm). Esto les permite incorporar la nueva construcción Blackwell, que es esencialmente la misma tecnología que impulsa los centros de datos de IA más avanzados del mundo.

Anuncio: desplácese para ver más contenido

Tesla, por otro banda, hizo un movimiento que podría sorprender a los guerreros de las hojas de especificaciones. Los desmontajes confirman que AI4 se sostén en el proceso de 7 nm de Samsung. Esto es adulto, confiable y mucho más asequible que los nodos de última reproducción de TSMC.

Cuando nos fijamos en la potencia de cálculo, NVIDIA afirma la asombrosa guarismo de 2000 TFLOPS para Thor. Pero hay un problema. Ese número utiliza precisión FP4 (punto flotante de 4 bits), un nuevo formato diseñado específicamente para los modelos Transformer utilizados en IA generativa.

Se estima que el AI4 de Tesla alcanzará entre 100 y 150 TOPS (INT8) en su sistema redundante de doble SoC. Sobre el papel, parece una matanza, pero Tesla hizo un compromiso de ingeniería muy específico que nos dice exactamente qué estaba consumiendo su software: el ufano de cuadrilla de la memoria.

Tesla cambió de LPDDR4 en HW3 a GDDR6 en HW4, la misma memoria que consume mucha energía que se encuentra en las tarjetas gráficas (GPU) para juegos. Esto le da a AI4 un ufano de cuadrilla de memoria masivo de aproximadamente 384 GB/s, en comparación con los 273 GB/s de Thor (en la configuración Jetson de un solo chip) usando LPDDR5X.

Esto sugiere que el enfoque de Tesla de sólo visión, que ingiere cantidades masivas de vídeo sin procesar de cámaras de entrada resolución, estaba hambriento de datos.

Según los comentarios de Elon Musk de que el chip AI5 de Tesla tendrá 5 veces el ufano de cuadrilla de la memoria, parece que todavía podría ser el cuello de botella de Tesla.

Aquí es donde verdaderamente se nota la reducción de costos de Tesla. AI4 todavía se ejecuta en núcleos ARM Cortex-A72, una construcción que tiene casi una decenio. Aumentaron el número de núcleos a 20, pero sigue siendo tecnología antigua.

Mientras tanto, NVIDIA Thor utiliza ARM Neoverse V3AE, una CPU de nivel de servidor diseñada explícitamente para el transporte actual definido por software. Esto le permite a Thor ejecutar no solo la pila de conducción autónoma, sino todo el sistema de información y entretenimiento, el tablero y potencialmente incluso un asistente de inteligencia industrial en el automóvil, todo en un solo chip.

Thor ha opuesto muchos interesados, especialmente entre los competidores de vehículos eléctricos de Tesla como BYD, Zeekr, Lucid, Xiaomi y muchos más.

La opinión de Electrek

Hay una cosa que no está ahí: el precio. Supongo que Tesla apetencia en ese frente, y eso es una gran parte del esquema. Tesla desarrolló un chip que no existía y que necesitaba.

Fue una correr impresionante, pero no convierte a Tesla en un líder increíble en silicio para conducción autónoma.

Tesla está maximizando AI4. Ahora utiliza entreambos chips, lo que hace que sea menos probable que inteligencia los niveles de pleonasmo necesarios para ofrecer una autonomía de nivel 4-5.

Mientras tanto, todavía no tenemos una opción para HW3 y aparentemente AI5 no vendrá a defender el día hasta 2027.

Para entonces, probablemente habrá millones de vehículos en circulación con procesadores NVIDIA Thor.

Leer  Nissan aumenta los planes de batería EV totalmente sólidos mientras la construcción de la línea piloto comienza

El más popular

spot_img