Fecha de lanzamiento | 18 de septiembre de 2014 ( 18 de septiembre de 2014 ) |
---|---|
Nombre en clave | GM20x |
Arquitectura | Maxwell |
Modelos | Serie GeForce
|
Transistores | 2.94B (GM206)
|
Proceso de fabricación | TSMC de 28 nm |
Tarjetas | |
Gama media |
|
De gama alta |
|
Entusiasta |
|
Soporte API | |
DirectX | Direct3D 12 ( nivel de función 12_1) [2] [3] [4] [5] Shader Model 6.7 |
OpenCL | OpenCL 3.0 [a] |
OpenGL | OpenGL 4.6 |
Vulcano | Vulkan 1.3 [1] SPIR-V |
Historia | |
Predecesor | |
Sucesor | Serie GeForce 10 |
Estado de soporte | |
Maxwell totalmente apoyado |
La serie GeForce 900 es una familia de unidades de procesamiento gráfico desarrolladas por Nvidia , sucesoras de la serie GeForce 700 y que sirven como introducción de gama alta a la microarquitectura Maxwell , llamada así en honor a James Clerk Maxwell . Se producen con el proceso de 28 nm de TSMC .
Con Maxwell, el sucesor de Kepler , Nvidia esperaba tres resultados principales: capacidades gráficas mejoradas, programación simplificada y mejor eficiencia energética en comparación con las series GeForce 700 y GeForce 600. [ 6]
Maxwell se anunció en septiembre de 2010, [7] y los primeros productos GeForce para consumidores basados en Maxwell se lanzaron a principios de 2014. [8]
La primera generación de Maxwell GM107/GM108 se lanzó como GeForce GTX 745, GTX 750/750 Ti y GTX 850M/860M (GM107) y GT 830M/840M (GM108). Estos nuevos chips ofrecen pocas funciones adicionales para el consumidor; en cambio, Nvidia se centró en la eficiencia energética. Nvidia aumentó la cantidad de caché L2 de 256 KiB en GK107 a 2 MiB en GM107, reduciendo el ancho de banda de memoria necesario. En consecuencia, Nvidia redujo el bus de memoria de 192 bits en GK106 a 128 bits en GM107, ahorrando aún más energía. [9] Nvidia también cambió el diseño del multiprocesador de transmisión del de Kepler (SMX), llamándolo SMM. La estructura del planificador warp se hereda de Kepler, que permite que cada planificador emita hasta dos instrucciones que son independientes entre sí y están en orden desde el mismo warp. La disposición de las unidades SMM está dividida de modo que cada uno de los 4 planificadores warp en un SMM controla 1 conjunto de 32 núcleos FP32 CUDA, 1 conjunto de 8 unidades de carga/almacenamiento y 1 conjunto de 8 unidades de función especial. Esto contrasta con Kepler, donde cada SMX tiene 4 planificadores que programan en un grupo compartido de 6 conjuntos de 32 núcleos FP32 CUDA, 2 conjuntos de 16 unidades de carga/almacenamiento y 2 conjuntos de 16 unidades de función especial. [10] Estas unidades están conectadas por una barra transversal que utiliza energía para permitir que se compartan los recursos. [10] Esta barra transversal se elimina en Maxwell. [10] Las unidades de textura y los núcleos FP64 CUDA aún se comparten. [9] SMM permite una asignación de recursos más precisa que SMX, lo que permite ahorrar energía cuando la carga de trabajo no es óptima para los recursos compartidos. Nvidia afirma que un SMM de 128 núcleos CUDA tiene el 86 % del rendimiento de un SMX de 192 núcleos CUDA. [9] Además, cada clúster de procesamiento gráfico, o GPC, contiene hasta 4 unidades SMX en Kepler y hasta 5 unidades SMM en Maxwell de primera generación. [9]
GM107 es compatible con CUDA Compute Capability 5.0 en comparación con 3.5 en las GPU GK110/GK208 y 3.0 en las GPU GK10x. Dynamic Parallelism e HyperQ, dos funciones de las GPU GK110/GK208, también son compatibles con toda la línea de productos Maxwell.
Maxwell proporciona operaciones atómicas de memoria compartida nativa para números enteros de 32 bits y comparación e intercambio (CAS) de memoria compartida nativa de 32 y 64 bits, que pueden usarse para implementar otras funciones atómicas.
Si bien alguna vez se pensó que Maxwell usaba rasterización de modo inmediato basada en mosaicos , [11] Nvidia corrigió esto en GDC 2017 diciendo que Maxwell en cambio usa almacenamiento en caché de mosaicos. [12]
Las GPU basadas en Maxwell también contienen el bloque SIP NVENC introducido con Kepler. El codificador de video de Nvidia, NVENC, es entre 1,5 y 2 veces más rápido que en las GPU basadas en Kepler, lo que significa que puede codificar video a una velocidad de reproducción de 6 a 8 veces mayor. [9]
Nvidia también afirma que el rendimiento de la decodificación de vídeo PureVideo Feature Set E aumenta de 8 a 10 veces gracias a la memoria caché del decodificador de vídeo combinada con un aumento de la eficiencia de la memoria. Sin embargo, H.265 no es compatible con la decodificación completa por hardware, ya que depende de una combinación de decodificación por hardware y software. [9] Al decodificar vídeo, se utiliza un nuevo estado de bajo consumo "GC5" en las GPU Maxwell para ahorrar energía. [9]
La segunda generación de Maxwell introdujo varias tecnologías nuevas: Dynamic Super Resolution, [13] Third Generation Delta Color Compression, [14] Multi-Pixel Programming Sampling, [15] Nvidia VXGI (Real-Time-Voxel- Global Illumination ), [16] VR Direct, [17] [18] [19] Multi-Projection Acceleration, [14] y Multi-Frame Sampled Anti-Aliasing (MFAA) [20] (sin embargo, se eliminó la compatibilidad con Coverage-Sampling Anti-Aliasing (CSAA)). [21] También se agregó compatibilidad con HDMI 2.0. [22] [23]
La segunda generación de Maxwell también cambió la relación entre el ROP y el controlador de memoria de 8:1 a 16:1. [24] Sin embargo, algunos de los ROP generalmente están inactivos en la GTX 970 porque no hay suficientes SMM habilitados para darles trabajo y, por lo tanto, reduce su tasa de llenado máxima. [25]
NVENC mejorado de segunda generación que admite codificación HEVC y agrega soporte para resoluciones de codificación H.264 a 1440p/60FPS y 4K/60FPS en comparación con NVENC en las GPU Maxwell GM10x de primera generación que solo admitían codificación H.264 1080p/60FPS. [19]
La GPU Maxwell GM206 admite la decodificación de hardware HEVC con funciones fijas completas. [26] [27]
Los problemas con las especificaciones de la GeForce GTX 970 fueron planteados por primera vez por los usuarios cuando descubrieron que las tarjetas, a pesar de contar con 4 GB de memoria, rara vez accedían a memoria por encima del límite de 3,5 GB. Pruebas e investigaciones posteriores finalmente llevaron a Nvidia a emitir un comunicado en el que afirmaba que las especificaciones anunciadas inicialmente de la tarjeta habían sido alteradas sin previo aviso antes de que la tarjeta estuviera disponible comercialmente, y que la tarjeta sufría una caída en el rendimiento una vez que se utilizaba memoria por encima del límite de 3,5 GB. [28] [29] [30]
Las especificaciones de hardware de la tarjeta, anunciadas inicialmente como idénticas a las de la GeForce GTX 980, diferían en la cantidad de caché L2 (1,75 MB frente a los 2 MB de la GeForce GTX 980) y en el número de ROP (56 frente a los 64 de la 980). Además, se reveló que la tarjeta estaba diseñada para acceder a su memoria como una sección de 3,5 GB, más una de 0,5 GB, siendo el acceso a esta última 7 veces más lento que a la primera. [31] La compañía luego prometió una modificación específica del controlador para aliviar los problemas de rendimiento producidos por los recortes sufridos por la tarjeta. [32] Sin embargo, Nvidia aclaró más tarde que la promesa había sido un error de comunicación y que no habría una actualización específica del controlador para la GTX 970. [33] Nvidia afirmó que ayudaría a los clientes que quisieran reembolsos a obtenerlos. [34] El 26 de febrero de 2015, el director ejecutivo de Nvidia, Jen-Hsun Huang, se disculpó públicamente por el incidente en el blog oficial de Nvidia. [35] En febrero de 2015, se presentó una demanda colectiva contra Nvidia y Gigabyte Technology en el Tribunal de Distrito de los Estados Unidos para el Norte de California alegando publicidad falsa. [36] [37]
Nvidia reveló que es capaz de desactivar unidades individuales, cada una con 256 KB de caché L2 y 8 ROP, sin desactivar controladores de memoria completos. [38] Esto se produce a costa de dividir el bus de memoria en segmentos de alta velocidad y baja velocidad a los que no se puede acceder al mismo tiempo a menos que un segmento esté leyendo mientras el otro segmento está escribiendo porque la unidad L2/ROP que administra ambos controladores GDDR5 comparte el canal de retorno de lectura y el bus de datos de escritura entre los dos controladores GDDR5 y ella misma. [38] Esto se utiliza en la GeForce GTX 970, que por lo tanto puede describirse como que tiene 3,5 GB en su segmento de alta velocidad en un bus de 224 bits y 0,5 GB en un segmento de baja velocidad en un bus de 32 bits. [38]
El 27 de julio de 2016, Nvidia aceptó llegar a un acuerdo preliminar en la demanda colectiva estadounidense [36] , ofreciendo un reembolso de $30 por las compras de la GTX 970. El reembolso acordado representa la parte del costo de las capacidades de almacenamiento y rendimiento que los consumidores asumieron que obtendrían cuando compraron la tarjeta. [39]
Si bien la serie Maxwell se comercializó como totalmente compatible con DirectX 12, [3] [40] [41] Oxide Games, desarrollador de Ashes of the Singularity , descubrió que las tarjetas basadas en Maxwell no funcionan bien cuando se utiliza el cómputo asincrónico. [42] [43] [44] [40]
Parece que, si bien esta característica principal está de hecho expuesta por el controlador, [45] Nvidia la implementó parcialmente a través de un shim basado en el controlador , lo que tiene un alto costo de rendimiento. [44] A diferencia de las tarjetas gráficas basadas en GCN de la competencia de AMD que incluyen una implementación completa de computación asincrónica basada en hardware, [46] [47] Nvidia planeó confiar en el controlador para implementar una cola de software y un distribuidor de software para reenviar tareas asincrónicas a los programadores de hardware, capaces de distribuir la carga de trabajo a las unidades correctas. [48] Por lo tanto, la computación asincrónica en Maxwell requiere que tanto un juego como el controlador de GPU estén codificados específicamente para computación asincrónica en Maxwell para habilitar esta capacidad. [49] El punto de referencia 3DMark Time Spy no muestra una diferencia de rendimiento notable entre la computación asincrónica habilitada o deshabilitada. [49] El controlador deshabilita la computación asincrónica para Maxwell. [49]
Oxide afirma que esto llevó a Nvidia a presionarlos para que no incluyeran la función de cómputo asincrónico en su evaluación comparativa, de modo que la serie 900 no estuviera en desventaja frente a los productos de AMD que implementan cómputo asincrónico en hardware. [43]
Maxwell requiere que la GPU esté particionada estáticamente para el cómputo asincrónico para permitir que las tareas se ejecuten simultáneamente. [50] Cada partición está asignada a una cola de hardware. Si alguna de las colas que están asignadas a una partición se vacía o no puede enviar trabajo por cualquier motivo (por ejemplo, una tarea en la cola debe retrasarse hasta que se resuelva un peligro ), la partición y todos los recursos en esa partición reservados para esa cola quedarán inactivos. [50] Por lo tanto, el cómputo asincrónico podría dañar fácilmente el rendimiento en Maxwell si no está codificado para trabajar con el programador estático de Maxwell. [50] Además, las tareas gráficas saturan las GPU de Nvidia mucho más fácilmente que las GPU basadas en GCN de AMD, que están mucho más ponderadas hacia el cómputo, por lo que las GPU de Nvidia tienen menos agujeros de programación que podrían llenarse con cómputo asincrónico que las de AMD. [50] Por estas razones, el controlador obliga a una GPU Maxwell a colocar todas las tareas en una cola y ejecutar cada tarea en serie, y otorgar a cada tarea los recursos indivisos de la GPU sin importar si cada tarea puede saturar la GPU o no. [50]
Algunas implementaciones pueden utilizar especificaciones diferentes.
Modelo | Lanzamiento | Nombre en clave | Fab ( nm ) | Transistores (millones) | Tamaño de la matriz (mm 2 ) | Interfaz de bus | Configuración del núcleo [b] | Velocidades de reloj | Tasa de llenado | Memoria | Compatibilidad con API (versión) | Potencia de procesamiento (GFLOPS) | TDP (vatios) | Compatibilidad con SLI [c] | ||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Reloj del núcleo base ( MHz ) | Aumentar el reloj del núcleo ( MHz ) | Memoria ( MT/s ) | Píxel ( GP /s) [d] | Textura ( GT /s) [e] | Tamaño ( MiB ) | Ancho de banda ( GB /s) | Tipo | Ancho de bus ( bit ) | DirectX | OpenGL | OpenCL | Vulcano | Precisión simple [f] | Doble precisión [g] | ||||||||||
GeForce 910M [53] [54] [55] | 18 de agosto de 2015 | GF117 [h] | 28 | 585 | 116 | PCIe 3.0 x8 | 96:16:8 | 775 | 1550 | 1800 | 3.1 | 12.4 | 1024 | 14.4 | Memoria GDDR3 | 64 | 12.0 (11_0) [2] [5] | 4.6 | 1.1 | — | 297.6 | 1/12 de SP | 33 | No |
15 de marzo de 2015 | GK208 | Desconocido | 87 | 384:16:8 | 575 | 575 | 5.13 | 9.2 | 2048 | 1.2 | 1.1 | 441.6 | 18.4 | |||||||||||
GeForce 920M [56] [57] [58] | 13 de marzo de 2015 | GF117 [h] | 585 | 116 | 96:16:8 | 775 | 1550 | 3.1 | 12.4 | 1024 | 1.1 | — | 297.6 | 1/12 de SP | ||||||||||
GK208 | Desconocido | 87 | 384:32:16 | 954 | 954 | 7.6 | 30.5 | 2048 | 1.2 | 1.1 | 732.7 | 22.9 | ||||||||||||
GeForce 920MX [59] [60] | Marzo de 2016 | GM108 [i] | 1870 | 148 | 256:24:8 | 1072 | 1176 | 8.58 | 25.7 | 2048 | Memoria DDR3 GDDR5 | 549 | 1/32 de SP | 16 | ||||||||||
GeForce 930M [61] [62] | 13 de marzo de 2015 | 384:24:8 | 928 | 941 | 7.4 | 22.3 | 2048 | DDR3 | 712.7 | 22.3 | 33 | |||||||||||||
GeForce 930MX [63] [64] | 1 de marzo de 2016 | Desconocido | Desconocido | PCIe 3.0 x8 | 384:24:8 | 952 | 1020 | 2000 | Desconocido | Desconocido | 2048 | Desconocido | Memoria DDR3 GDDR5 | Desconocido | Desconocido | Desconocido | Desconocido | Desconocido | Desconocido | |||||
GeForce 940M [65] [66] [67] | 13 de marzo de 2015 | GM107 | 1870 | 148 | PCIe 3.0 x16 | 640:40:16 | 1029 | 1100 | 2002 | 16.5 | 41.2 | 2048 | 16 - 80.2 | Memoria DDR5 DDR3 | 128 | 1.2 | 1.1 | 1317 | 41.1 | 75 | No | |||
GM108 [i] | Desconocido | Desconocido | PCIe 3.0 x8 | 384:24:8 | 8.2 | 24.7 | 64 | 790.3 | 24.7 | 33 | ||||||||||||||
GeForce 940MX [68] [69] | 10 de marzo de 2016 | 1870 | 148 | 384:24:8 | 1122 | 1242 | 8,98 | 26,93 | 2048 4096 | 16,02 (DDR3) 40,1 (GDDR5) | 861.7 | Desconocido | 23 | |||||||||||
GeForce 945M [70] [71] [72] | 2015 | GM107 | ? | 640:40:16 | 1029 | 1085 | ? | 16.46 | 41.2 | ? | ? | Memoria DDR3 GDDR5 | 128 | 1.317,1 | ? | 75 | ? | |||||||
GM108 [i] | ? | ? | PCIe 3.0 x8 | 384:24:8 | 1122 | 1242 | 8,98 | 26,93 | 64 | 861.7 | 23 | |||||||||||||
GeForce GT 945A [73] [74] | 13 de marzo de 2015 | Desconocido | Desconocido | 384:24:8 | 1072 | 1176 | 1800 | 8.58 | 25,73 | 2048 | 14.4 | DDR3 | Desconocido | Desconocido | Desconocido | 33 | Desconocido | |||||||
GeForce GTX 950M [75] [76] | 13 de marzo de 2015 | GM107 | 1870 | 148 | PCIe 3.0 x16 | 640:40:16 | 914 | 1085 | 5012 | 14.6 | 36.6 | 2048 (GDDR5) 4096 (DDR3) | 80 (GDDR5) 32 (DDR3) | Memoria DDR3 GDDR5 | 128 | 1.2 [77] | 1.1 | 1170 | 36,56 | 75 | No | |||
GeForce GTX 960M [78] [79] | 640:40:16 | 1029 | 1085 | 16.5 | 41.2 | 2048 4096 | 80 | Memoria GDDR5 | 1317 | 41.16 | 65 | |||||||||||||
GeForce GTX 965M [80] [81] | 5 de enero de 2015 | GM204 | 5200 | 398 | 1024:64:32 | 924 | 950 | 5000 | 30.2 | 60.4 | 12.0 (12_1) [2] [5] | 1945 | 60,78 | 60 | Sí | |||||||||
GeForce GTX 970M [82] | 7 de octubre de 2014 | 1280:80:48 | 924 | 993 | 5012 | 37.0 | 73.9 | 3072 6144 | 120 | 192 | 2365 | 73.9 | 75 | |||||||||||
GeForce GTX 980M [83] | 1536:96:64 | 1038 | 1127 | 49.8 | 99.6 | 4096 8192 | 160 | 256 [84] | 3189 | 99.6 | 100 |
Modelo | Lanzamiento | Nombre en clave | Proceso | Transistores (miles de millones) | Tamaño de la matriz (mm 2 ) | Configuración del núcleo [a] | Interfaz de bus | Caché L2 ( MB ) | Velocidades de reloj | Memoria | Tasa de llenado [b] | Potencia de procesamiento ( GFLOPS ) [b] [c] | TDP (vatios) | Compatibilidad con SLI | Precio de lanzamiento (USD) | |||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Base ( MHz ) | Impulso ( MHz ) | Memoria ( MT/s ) | Tamaño ( GB ) | Ancho de banda ( GB /s) | Tipo de autobús | Ancho de bus ( bit ) | Píxel ( GP /s) [d] | Textura ( GT /s) [e] | Precisión simple | Doble precisión | Precio de venta sugerido por el fabricante | |||||||||||
GeForce GT 945A [85] [86] [87] | Febrero de 2016 | GM108 | Motor TSMC de 28 CV | Desconocido | Desconocido | 512:24:8 (4) | PCIe 3.0 x8 | ? | 1072 | 1176 | 1800 | 1 / 2 | 14.4 | DDR3 / GDDR5 | 64 | 8.5 9.4 | 25,7 28,2 | 1.097,7 1.204,2 | 34,3 37,6 | 33 | No | Fabricante de equipos originales (OEM) |
GeForce GTX 950 [88] | 20 de agosto de 2015 | GM206-250 | 2,94 | 227 | 768:48:32 (6) | PCIe 3.0 x16 | 1 | 1024 | 1188 | 6600 | 2 | 105.7 | Memoria GDDR5 | 128 | 32,7 38,0 | 49,1 57,0 | 1.572,8 1.824,7 | 49,1 57,0 | 90 (75 [f] ) | SLI de dos vías | $159 | |
GeForce GTX 950 (OEM) [90] | Desconocido | GM206 | 1024:64:32 (8) | 935 | Desconocido | 5000 | 80.0 | 29.9 | 59,8 | 1.914,9 , | 59,8 | Desconocido | Fabricante de equipos originales (OEM) | |||||||||
GeForce GTX 960 [91] | 22 de enero de 2015 | GM206-300 | 1127 | 1178 | 7000 | 2 4 [g] | 112.1 | 36,0 37,6 | 72,1 75,3 | 2.308,0 2.412,5 | 72,1 75,3 | 120 | $199 | |||||||||
GeForce GTX 960 (OEM) [93] | Desconocido | GM204 | 5.2 | 398 | 1280:80:48 (10) | 924 | Desconocido | 5000 | 3 | 120.0 | 192 | 44.3 | 73.9 | 2.365,4 , | 73.9 | Desconocido | Fabricante de equipos originales (OEM) | |||||
GeForce GTX 970 [94] | 18 de septiembre de 2014 | GM204-200 | 1664:104:56 (13) | 1,75 | 1050 | 1178 | 7000 | 3,5 + 0,5 [h] | 196,3 + 28,0 [horas] | 224 + 32 [h] | 58,8 65,9 | 109,2 122,5 | 3.494,4 3.920,3 | 109,2 122,5 | 145 | SLI de 4 vías | $329 | |||||
GeForce GTX 980 [96] | 18 de septiembre de 2014 | GM204-400 | 2048:128:64 (16) | 2 | 1126 | 1216 | 4 | 224.3 | 256 | 72,0 77,8 | 144,1 155,6 | 4.612,0 4.980,7 | 144,1 155,6 | 165 | $549 | |||||||
GeForce GTX 980 Ti [97] | 1 de junio de 2015 | GM200-310 | 8 | 601 | 2816:176:96 (22) | 3 | 1000 | 1075 | 6 | 336,5 | 384 | 96,0 103,2 | 176,0 189,2 | 5.632,0 6.054,4 | 176,0 189,2 | 250 | $649 | |||||
GeForce GTX TITAN X [98] | 17 de marzo de 2015 | GM200-400 | 3072:192:96 (24) | 12 | 192,0 206,4 | 6,144.0 6,604.8 | 192,0 206,4 | $999 |
El controlador 368.81 es el último controlador compatible con Windows XP/Windows XP de 64 bits. [ cita requerida ]
Los controladores de 32 bits para sistemas operativos de 32 bits se discontinuaron después del lanzamiento del controlador 391.35 en marzo de 2018. [99]
Las GPU para portátiles basadas en la arquitectura Kepler pasaron a tener soporte heredado en abril de 2019 y dejaron de recibir actualizaciones de seguridad críticas después de abril de 2020. [100] [101] Las Nvidia GeForce 910M y 920M de la familia de GPU 9xxM se ven afectadas por este cambio.
Nvidia anunció que después del lanzamiento de los controladores 470, trasladaría el soporte de los controladores para los sistemas operativos Windows 7 y Windows 8.1 al estado heredado y continuaría brindando actualizaciones de seguridad críticas para estos sistemas operativos hasta septiembre de 2024. [102]
{{cite web}}
: CS1 maint: copia archivada como título ( enlace )