Noticias, Gadgets, Android, Móviles, Descargas de Aplicaciones

NVIDIA arroja luz sobre la falta de optimizaciones de CPU PhysX

Hace unos cuatro meses, cubrimos la última ronda de patadas en la espinilla entre ATI y NVIDIA, y ATI afirmó que NVIDIA paralizó intencionalmente el rendimiento de la CPU al ejecutar código PhysX y obligó a los desarrolladores a usarlo. NVIDIA negó todas esas afirmaciones, en particular las que implicaban que utilizó su programa “La forma en que está destinado a ser jugado” como un garrote para forzar el hardware PhysX en desarrolladores o jugadores.

Un nuevo informe de David Kanter de Real World Technologies ha investigado cómo se ejecuta PhysX en una CPU x86 estándar; su análisis confirma algunas de las declaraciones anteriores de AMD. En muchos casos, el código PhysX que se ejecuta en un título determinado es tanto de un solo subproceso como decididamente no optimizado. Y en lugar de aprovechar las capacidades de vectorización SSE / SSE2 en el corazón de cada procesador x86 vendido desde ~ 2005, los cálculos de PhysX se realizan utilizando antiguas instrucciones x87.


En caso de duda, culpe al PPU.
Antes de la introducción de conjuntos SIMD como SSE y SSE2, si deseaba hacer cálculos de punto flotante en un procesador x86, utilizaba la serie de comandos x87. En los últimos 11 años, sin embargo, Intel, AMD y VIA han adoptado SSE y SSE2. Ambos permiten un rendimiento mucho mayor que el conjunto de instrucciones x87 clásico; dada la ubicuidad del soporte en el mercado de PC, es difícil decir por qué NVIDIA no ha exigido específicamente su uso.

Sin embargo, como muestra el análisis de RWT, prácticamente todos los uops aplicables tanto en la criostasis como en la física del cuerpo blando usan x87; SSE representa solo un pequeño porcentaje del total. Agregue el hecho de que CPU PhysX es típicamente de un solo subproceso mientras que GPU PhysX no lo es, y los datos de Kanter sugieren que NVIDIA ha elegido conscientemente evitar cualquier optimización de CPU y, al hacerlo, ha ampliado artificialmente la brecha entre CPU y GPU. actuación. Si esa acusación suena familiar, es porque hablamos de ella hace unas semanas, después de que Intel presentó un documento técnico en el que se afirmaba que muchos de los casos de prueba de NVIDIA cuando afirmaban enormes ventajas de rendimiento de la GPU estaban optimizados injustamente.