Nvidia GeForce GTX Titan X revisada: aplastando el mercado de una sola GPU

Titán X

Hoy, Nvidia lanza su nueva GPU de lujo de ultra alta gama, la GeForce GTX Titan X. Esta es la cuarta GPU que lleva la marca Titan, pero solo la segunda arquitectura que lo hace. Cuando Nvidia lanzó el primer titán , utilizó una versión reducida de su estación de trabajo y procesador HPC, el GK110, con solo 14 de sus 15 unidades SMX habilitadas. Tarjetas posteriores, como la Negro titán , agregó RAM y habilitó la última unidad SMX, mientras que la Titan Z de doble GPU empaquetaba dos núcleos Titan Black en el mismo silicio con resultados mixtos.

GM200

GM200, edición completa



La Titan X se basa en el procesador GM200 de Nvidia y se envía con los 24 SMM habilitados (ese es el término actual para las unidades informáticas de Nvidia). El chip tiene 3072 núcleos CUDA y la friolera de 12 GB de memoria GDDR5. Para aquellos de ustedes preocupados por un problema de estilo GTX 970, pueden estar tranquilos: aquí no hay problemas de memoria bifurcada.



Titan-Especificaciones

Muchas de las especificaciones de la Titan X han aterrizado como se predijo. La tarjeta tiene un bus de memoria de 384 bits, 192 unidades de textura (TMU), 96 salidas de renderizado (ROPS), un reloj base de 1 GHz y un reloj de memoria de ~ 1750 MHz. Nvidia también afirma que esta GPU puede hacer overclock como gangbusters, con velocidades de reloj de hasta 1.4GHz en refrigeración por aire teóricamente posibles. Cubriremos el rendimiento del overclocking en una pieza separada en un futuro muy cercano.

A diferencia del primer Titán, esta nueva tarjeta no ofrece punto flotante de doble precisión de velocidad completa, pero admite lo mismo iluminación global voxel (VXGI) y capacidades mejoradas de decodificación H.265 que se han implementado en tarjetas de la familia GTX 900 anteriores.

¿La primera GPU 4K única?

Uno de los principales puntos de conversación de Nvidia para la Titan X es que esta nueva tarjeta está diseñada y destinada a Juego 4K . La forma en que se equilibra la GPU tiende a confirmarlo. La GTX 680, lanzada hace tres años, tenía solo 32 salidas de render, que son las unidades responsables de la salida de píxeles terminados que luego se dibujan en la pantalla. La GTX 780 Ti, la implementación completa de la estación de trabajo de Kepler, aumentó esto a 48 ROP.

GTX-TitanX

La GTX 980 aumentó esto aún más, a 64 ROPS, y ahora la GTX 980 lo ha llevado aún más lejos, hasta 96 salidas de render. El resultado final de todo este poder de empuje de píxeles es que el Titan X es destinado a impulsar 4K de forma más eficaz que cualquier GPU anterior. Si eso es 'suficiente' para 4K dependerá, hasta cierto punto, del tipo de calidad de imagen que considere aceptable.

Posicionamiento competitivo

Si sigue el mercado de GPU con regularidad, es probable que sepa que Nvidia ha estado en el asiento del conductor durante los últimos seis meses. Es posible que las R9 290 y 290X de AMD, con sede en Hawái, se hayan divertido mucho con la familia GTX 780 en 2013, pero las GTX 970 y 980 de Nvidia revirtieron esa situación perfectamente. Sin embargo, dado el precio de la Titan X, solo hay una GPU AMD que incluso compite potencialmente: la R9 295X2 de doble GPU.

AMD R9 295X2

El AMD R9 295X2 tiene un enorme TDP de 500 W, pero sigue siendo bastante silencioso gracias a su enorme solución de refrigeración por agua.

Las comparaciones de GPU dual versus única son intrínsecamente complicadas. En primer lugar, la tarjeta duplicada es casi siempre la ganadora general: es excepcionalmente raro que AMD o Nvidia tengan tal ventaja sobre la otra que dos tarjetas no pueden superar a una.

La razón por la que las GPU dobles no barren automáticamente estas comparaciones es doble: en primer lugar, no todos los juegos admiten más de una tarjeta gráfica, lo que deja la segunda GPU inactiva. Segundo, incluso cuando un juego hace admite varias tarjetas, normalmente se necesitan optimizaciones de controladores para habilitarlo por completo. AMD históricamente se ha quedado atrás en este departamento en comparación con Nvidia; examinaremos cómo le ha ido al Team Red en este frente en las próximas páginas y agregaremos los resultados a nuestras recomendaciones generales.

Copyright © Todos Los Derechos Reservados | 2007es.com