JEDEC certifica GDDR5X: ¿AMD y Nvidia lo aprovecharán para gráficos de próxima generación después de todo?

El otoño pasado, Micron anunció que lanzaría un nuevo tipo de GDDR5 al mercado, GDDR5X. En ese momento, no estaba claro si el anuncio supondría mucho, ya que Micron no esperaba disponibilidad hasta finales de 2016, y es probable que tanto AMD como Nvidia hayan actualizado sus productos de escritorio y móviles para entonces. Ahora, el consorcio de estándares de memoria JEDEC ha reconocido y publicado oficialmente GDDR5X como un nuevo estándar de memoria, lo que podría hacerlo mucho más atractivo tanto para AMD como para Nvidia.

GDDR5X frente a GDDR5

diferente a memoria de gran ancho de banda (HBM, HBM2), GDDR5X es una extensión del estándar GDDR5 que las tarjetas de video han utilizado durante casi siete años. Al igual que HBM, debería mejorar drásticamente el ancho de banda de la memoria.



GDDR5X logra esto de dos formas distintas. Primero, se mueve de un bus DDR a un bus QDR. El siguiente diagrama muestra las diferencias entre un bus SDR (velocidad de datos única), DDR (velocidad de datos doble) y QDR (velocidad de datos cuádruple).



SDR frente a DDR frente a QDR

Señalización de memoria. Imagen de MonitorInsider

Un bus SDR transfiere datos solo en el flanco ascendente de la señal del reloj, mientras pasa de un 0 a un 1. Un bus DDR transfiere datos tanto cuando el reloj sube como cuando vuelve a bajar, lo que significa que el sistema puede transmitir datos dos veces de forma efectiva tan rápido al mismo ritmo de reloj. Un bus QDR transfiere hasta cuatro palabras de datos por ciclo de reloj, nuevamente, duplicando efectivamente el ancho de banda (en comparación con DDR) sin aumentar la velocidad del reloj.



El otro cambio a GDDR5X es que el sistema ahora busca previamente el doble de datos (16n, en vez de 8n). Este cambio está vinculado a la señalización QDR: con la tasa de señalización más alta, tiene sentido obtener más información a la vez.

MonitorInsider tiene un excelente discusión de GDDR5X, donde pasan por el nuevo estándar y en qué se diferencia de GDDR5. Un punto que señalan es que el uso de GDDR5X puede no corresponder bien con las características de las GPU de Nvidia. Una captación previa 16n significa que cada captación previa contiene 64 bytes de datos. Las GPU de Nvidia utilizan transacciones de 32 bytes cuando acceden a la caché L2, lo que significa que la DRAM obtiene el doble de información que el tamaño de la línea de la caché L2. GDDR5X presenta una función, Accesos a memoria pseudoindependientes, que debería ayudar a abordar esta ineficiencia.

GDDR5X no aborda el problema central de GDDR5

Ahora que JEDEC ha ratificado oficialmente el estándar GDDR5X, creo que es mucho más probable que AMD y Nvidia lo adopten. Dada la complejidad adicional de HBM / HBM2 y la dificultad intrínseca de construir pilas de chips conectados por pequeños cables en lugar de la tecnología plana bien entendida, algunos han argumentado que GDDR5X en realidad es la mejor opción a largo plazo.



Para ser justos, hemos visto exactamente este argumento se repite varias veces antes. RDRAM, Larrabee y la arquitectura Itanium de 64 bits de Intel fueron todas desviaciones radicales del status quo que se anunciaron como la tecnología inevitable y costosa del futuro. En todos los casos, estas nuevas tecnologías de vanguardia fueron derribadas por la evolución continua de la memoria DDR, la rasterización y el estándar x86-64 de AMD. ¿Por qué HBM debería ser diferente?

La respuesta es esta: HBM y HBM2 no sólo mejorar el ancho de banda de la memoria. Ambos estándares reducen el consumo absoluto de energía de VRAM y mejoran drásticamente el rendimiento por vatio. Además, HBM2 ofrece densidades de VRAM que GDDR5X no puede igualar. Samsung tiene chips de 4 Gb en producción en este momento (16 GB por GPU) y espera producir tarjetas de 8 Gb que permitirían 32 GB de RAM por GPU en solo cuatro pilas de memoria. El GDDR5 actual de Micron alcanza un máximo de 1 GB por chip. Incluso si duplicamos esto a 2GB para diseños futuros, todavía se necesitarían 16 chips, cada uno con su propio enrutamiento de seguimiento y requisito de área de superficie. GDDR5X establece un voltaje de señalización más bajo de 1.35v, pero no es una mejora lo suficientemente grande como para compensar el mayor número de chips y el consumo de energía general.

HBM-1

Esta diapositiva muestra el problema de apilar configuraciones de RAM 2D indefinidamente. Una GPU de 32GB construida con GDDR5X usando la tecnología actual requeriría 2 veces más chips como se muestra arriba.

La complejidad de la placa, el aumento de calor y los requisitos de energía adicionales en comparación con HBM2 eventualmente superan cualquier aumento de los costos asociados con el desarrollo de la nueva tecnología. La diapositiva de arriba es de una presentación de AMD, pero también se aplica a Nvidia.

Ahora, dicho esto, creo que veremos tarjetas GDDR5X de uno o ambos proveedores, al menos en el corto plazo. Permitirá que AMD y Nvidia ofrezcan mejoras sustanciales en el ancho de banda junto con las GPU que no tienen grandes búferes de VRAM en primer lugar. Aún no está claro dónde estará exactamente la división HBM2 / GDDR5X / GDDR5, pero ninguna de las dos compañías cederá a la otra la potente ventaja que GDDR5X podría brindar. Adoptarlo en tarjetas de rango medio a 14/16 nm permitirá a los equipos rojo y verde anunciar enormes mejoras de ancho de banda en todos los ámbitos, incluso en tarjetas que no imponen precios estratosféricos.

Copyright © Todos Los Derechos Reservados | 2007es.com