Nvidia-GeForce-10-Serie

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Nvidia Geforce GTX)
Zur Navigation springen Zur Suche springen
Logo der Nvidia-GeForce-10-Serie
Nvidia GeForce GTX 1070 „Founders Edition“

Die GeForce-10-Serie ist eine Serie von Grafikchips des Unternehmens Nvidia und Nachfolger der GeForce-900-Serie. Alle Grafikprozessoren dieser Serie basieren auf der Pascal-Architektur und unterstützen das Shadermodell 5.0 (SM 5.0) nach DirectX 12.1. Ab der Pascal-Architektur und ab dem Windows 10 May 2020 Update kann HAGS (Hardware Accelerated GPU Scheduling) aktiviert werden, sofern ein WDDM-2.7 (oder höher) -fähiger Grafiktreiber (ab Version 450) installiert ist. Die GeForce-10-Serie wurde im gehobenen Mid-range- bis High-End-Bereich von der GeForce-20-Serie abgelöst, die erstmals im Endverbraucherbereich Hardware-beschleunigtes Echtzeit-Raytracing unterstützt, sowie im Entry-level- bis unteren Mid-range-Bereich von der GeForce-16-Serie.

GeForce GTX 1080 Ti, Titan X und Titan Xp

[Bearbeiten | Quelltext bearbeiten]
MSI GeForce GT 1030 mit passiver Kühlung

Am 2. August 2016 stellte Nvidia mit der Titan X den Nachfolger der GeForce GTX Titan X vor. Da sich beide Karten von der Namensgebung her sehr ähnlich sind (sie unterscheiden sich nur durch das Weglassen des „GeForce GTX“-Präfixes, das kurioserweise auf der Karte selbst weiterhin vorhanden ist),[1] sorgte dies für entsprechende Verwirrungen. Während die Titan X der vorherigen Generation noch die GM200-GPU verwendete, nutzt die neue Version den GP102-400-A1-Grafikprozessor.

Die GP102-GPU stellt den Grafikprozessor der Pascal-Generation für den Enthusiasten-Sektor dar. Er ist 471 mm² groß, besteht aus rund 12 Mrd. Transistoren und wird bei TSMC im 16-nm-FinFET-Fertigungsprozess hergestellt. Aus technischer Sicht handelt es sich beim GP102 mit 96 Raster-, 3840 Shader- und 240 Textureinheiten um eine 50 % vergrößerte Variante des GP104. In früheren Generationen verwendete Nvidia einen Grafikprozessor für den High-End-/Enthusiasten-Sektor und den Profi-Markt, weshalb GPUs wie der GK110 zahlreiche HPC-Funktionen aufweist, die für 3D-Anwendungen überflüssig sind. Bereits in der letzten Generation legte Nvidia mit dem GM200 einen reinen Gamerchip für den Enthusiasten-Markt auf, bedingt durch die produktionstechnischen Limitierungen der älteren 28-nm-Fertigungstechnik. Bei der Pascal-Generation fiel mit der neuen 16-nm-Fertigung diese Limitierungen wieder weg, allerdings blieb Nvidia dennoch dabei, zwei unterschiedliche Grafikprozessoren für den Profi- und den Enthusiasten-Markt zu entwickeln (den GP100 und den GP102). Obwohl beide Prozessoren dieselbe Anzahl an Shader-, Textur- und Rastereinheiten aufweisen, unterschieden sie sich massiv. So verwendet der GP100 einen anderen Clusteraufbau, der sich von allen anderen GPUs der Pascal-Generation unterscheidet, verfügt über zahlreiche HPC-Funktionen und hat ein HBM2-Speicherinterface.

Bei der Titan X sind auf dem GP102-400-A1 zwei Cluster deaktiviert, womit noch 3584 Shader- und 224 Textureinheiten zur Verfügung stehen (der Vollausbau ist zunächst nur auf der Quadro P6000 vorhanden). Des Weiteren besitzt die Titan X einen 12 GB großen GDDR5X-Videospeicher, der über ein 384-Bit-Speicherinterface angeschlossen ist. Damit erreicht die Titan X gegenüber der GeForce GTX 1080 eine rund 25 Prozent höhere Performance unter Full-HD, die unter 4K auf etwa 31 % ansteigt. Entsprechend früheren Titan-Modellen nahm die Titan X somit erneut die Position als schnellste Single-GPU-Grafikkarte am Markt ein, begünstigt durch das Fehlen von AMD-Konkurrenzprodukten.[1] Für Kritik sorgte der Umstand, dass Nvidia die Titan X nicht über Boardpartner vertrieb, sondern nur über den eigenen Onlineshop für einen Listenpreis von 1299 €. Nachdem die Titan X durch die GeForce GTX 1080 Ti obsolet geworden war, ersetzte Nvidia diese durch die Titan Xp. Diese verwendet die GP102-450-A1 im Vollausbau und mit leicht erhöhten Taktraten.[2]

Am 9. März 2017 stellte Nvidia die GeForce GTX 1080 Ti vor. Diese verwendet den GP102-350-K1-A1-Grafikprozessor, der mit zwei deaktivierten Shader-Clustern (SMX) daher kommt. Somit verfügt die GTX 1080 Ti über 3584 Shader- und 224 Textureinheiten, genau wie die Titan X zuvor. Im Gegensatz zu dieser wurde auch der Videospeicher beschnitten: Die GeForce GTX 1080 Ti besitzt noch 11 GB GDDR5X-VRAM an einem 352-Bit-Speicherinterface. In Kombination mit leicht höheren Taktraten erreicht die GeForce GTX 1080 Ti trotz des kleineren Videospeichers eine etwas bessere Performance gegenüber der Titan X.[3][4] Nvidia setzte den Listenpreis für die GeForce GTX 1080 Ti auf 699 US-Dollar fest und verzichtete auf einen Preisaufschlag für die Founders-Edition. Sie ist damit die günstigste Grafikkarte mit dem GP102-Grafikprozessor und zugleich die einzige, bei der Nvidia Eigendesigns der Boardpartner erlaubte.

GeForce GTX 1070, 1070 Ti und 1080

[Bearbeiten | Quelltext bearbeiten]

Nvidia stellte die erste Grafikkarte der GeForce-10-Serie, die GeForce GTX 1080, am 6. Mai 2016 vor und kündigte den Verkaufsstart für den 27. Mai an. Die GeForce GTX 1070 folgte am 10. Juni 2016. Beide Karten verwenden den GP104-Grafikprozessor. Eine Besonderheit der Karten lag darin, dass Nvidia diese in einer sogenannten Founders-Edition anbot. Allerdings handelte es sich dabei nur um das Referenzdesign, das Nvidia nun unter anderem Namen mit verlängerter Supportdauer und erhöhtem Listenpreis anbot und über den eigenen Online-Shop vertrieb.[5] Gerade letzter Umstand – der gegenüber Designs der Boardpartner erhöhte Listenpreis (379 zu 449 US-Dollar bei der GeForce GTX 1070) – sorgte für erhebliche Verwirrung und Kritik in der Fachpresse. Die Kritik an der Founders-Edition wurde auch durch die – gegenüber den Designs der Boardpartner – erhöhte Geräuschentwicklung verursacht: Auf der GeForce GTX 1080 erreicht diese, trotz Vapor-Chamber-Kühlung, unter Volllast bis zu 4,2 Sone.[6]

Die GP104-GPU stellt den Grafikprozessor der Pascal-Generation für den Highend-Sektor dar. Er ist 314 mm² groß, besteht aus 7,2 Mrd. Transistoren und wird bei TSMC im 16-nm-FinFET-Fertigungsprozess hergestellt. Er verfügt über 2560 Shader- und 160 Textureinheiten, die in 20 Clustern organisiert sind. Des Weiteren verfügt der GP104 über 4 Raster-Engines, 64 Rastereinheiten auf 8 Partitionen sowie einen 2048-kB-L2-Cache. Gegenüber dem direkten Vorgänger, dem GM204, unterstützt der GP104 nun auch HDMI 2.0b (inklusive HDCP 2.2), sowie DisplayPort 1.4 (obwohl dieser zum Releasezeitpunkt noch nicht final zertifiziert war).[7]

Die GeForce GTX 1080 wurde von Nvidia am 27. Mai 2016 veröffentlicht, wobei der GP104-400-A1 im Vollausbau verwendet wird und über einen 8-GB-GDDR5X-Videospeicher verfügt. Unter Ultra-HD weist die Karte gegenüber ihrem Vorgänger, der GeForce GTX 980, eine 64 % bis 73 %, der GeForce GTX 980 Ti eine 30 % bis 37 % und der AMD Radeon R9 Fury X eine 26 % bis 33 % höhere Performance auf.[8] Damit etablierte sich die GeForce GTX 1080 kurzzeitig als schnellste Single-GPU-Karte am Markt, bis Nvidia die Titan X vorstellte. Die hohe Performance in Kombination mit der erneut verbesserten Energieeffizienz führte zu entsprechend positiven Bewertungen in der Fachpresse. Dem stand allerdings erneut ein gestiegener Listenpreis von 599 bzw. 699 US-Dollar bei der Founders-Edition gegenüber (bei der GeForce GTX 980 lag der Listenpreis noch bei 549 US-Dollar), begünstigt durch die fehlenden Konkurrenzangebote von AMD. Erst mit der Markteinführung der GeForce GTX 1080 Ti senkte Nvidia den Listenpreis offiziell auf 499 US-Dollar ab. Am 28. Februar 2017 führte Nvidia die GP104-410-A1-GPU auf der GeForce GTX 1080 ein, womit der GDDR5X-Videospeicher bis 11 Gbps unterstützt wird.[9]

Die GeForce GTX 1070 folgte der GTX 1080 am 10. Juni 2016 auf den Markt. Der verwendete GP104-200-A1-Grafikprozessor ist allerdings teilweise stark beschnitten: so sind 5 der 20 Shadercluster deaktiviert, d. h. eine komplette GPC-Einheit steht nicht zur Verfügung. Im Gegensatz zum direkten Vorgänger, der GeForce GTX 970, verzichtete Nvidia auf eine Beschneidung des Videospeichers, allerdings kommt statt des GDDR5X der konventionelle GDDR5-Speicher zum Einsatz. In dieser Konfiguration erreichte die GeForce GTX 1070 82 bis 86 % der Performance der GTX 1080. Gegenüber den Topmodellen der Vorgängergeneration, der GeForce GTX 980 Ti und der Radeon R9 Fury X, erreicht sie unter Ultra-HD einen Performancegewinn von 3 bis 9 %.[10] Wie auch bei der GeForce GTX 1080 erhöhte Nvidia bei der GTX 1070 ebenfalls den Listenpreis um 50 US-Dollar gegenüber dem direkten Vorgänger (von 329 auf 379 US-Dollar), für die ebenfalls kein Gegenstück von AMD aufgelegt wurde.

Die GeForce GTX 1070 Ti, veröffentlicht am 26. Oktober 2017, versucht den Spagat, das leistungsstärkere Schwestermodell GTX 1080 nicht zu kannibalisieren und sich gleichzeitig AMDs Radeon RX Vega 56 entgegenzustellen. Aus Rücksicht auf die GTX 1080 hatte Nvidia den Produktionspartnern Restriktionen hinsichtlich werkseitiger Übertaktung oder Erhöhung des Powerlimits auferlegt. Das hatte zur Folge, dass allen vertriebenen Ti-Karten im BIOS ein Basistakt von 1.607 MHz zu Eigen ist, die Modelle der Nvidia-Partner jedoch mittels Tuning-Tools und effizienterem Kühldesign die Leistung von Nvidias Referenzkarte übertreffen können.[11]

GeForce GTX 1060

[Bearbeiten | Quelltext bearbeiten]

Die GP106-GPU stellt den Grafikprozessor der Pascal-Generation für den Mittelklasse-Sektor dar. Er ist 200 mm² groß, besteht aus 4,4 Mrd. Transistoren und wird ebenfalls bei TSMC im 16-nm-FinFET-Fertigungsprozess hergestellt. Technisch gesehen handelt es sich beim GP106 um eine glatte Halbierung des GP104: Er verfügt über 1280 Shader- und 80 Textureinheiten die in 10 Clustern organisiert sind. Des Weiteren verfügt der GP106 über 2 Raster-Engines, 48 Rastereinheiten auf 6 Partitionen, sowie einen 2048 kB großen L2-Cache. Im Gegensatz zu den Grafikprozessoren früherer Generationen aus dem Performancesektor unterstützt der GP106 kein SLI mehr.[12]

Am 19. Juli 2016 stellte Nvidia die GeForce GTX 1060 vor, die den GP106-400-A1 im Vollausbau nutzt und über 6 GB VRAM besitzt. Im Gegensatz zu den anderen zuvor vorgestellten Grafikkarten der Serie stand mit der Radeon RX 480 ein direkter Konkurrent von AMD entgegen. Gegenüber diesem konnte die GeForce GTX 1060 unter Full-HD eine rund 6 % höhere Performance aufweisen, im Vergleich zum direkten Vorgänger, der GeForce GTX 960 (4 GB), eine rund 75 % höhere Leistung.[13] Da der Performanceunterschied in etwa der Preisdifferenz entsprach (269 zu 279 €), wurden beide Karten entsprechend positiv in der Fachpresse für ihr Preis-Leistungs-Verhältnis bewertet.[14] Ein im Vorfeld angenommener Nachteil der GeForce GTX 1060 gegenüber der Radeon RX 480 war der kleinere Videospeicher (6 zu 8 GB). In den Praxistests konnte – bedingt durch das bessere Speichermanagement und der verbesserten Farbkompression – aber kein Nachteil festgestellt werden. Dementgegen konnte die Radeon RX 480 eine höhere Performance unter DirectX 12 und Vulkan aufweisen, wodurch diese eine potentiell höhere Zukunftssicherheit hat.[15] In die Kritik geriet Nvidia, als diese Anfang August eine 3-GB-Variante der GeForce GTX 1060 auf den Markt brachte. Bei dieser konnte teilweise eine deutliche Speicherlimitierung festgestellt werden.[16] Ebenfalls negativ auf die Performance wirkte sich der Umstand aus, dass der GP106-300-A1 hier nicht im Vollausbau genutzt wird, sondern ein Shadercluster deaktiviert ist, was für den Kunden nicht unmittelbar erkennbar ist; beide Modelle lassen sich ausschließlich an der Speichergröße unterscheiden. Analog zur GeForce GTX 1080 führte Nvidia am 28. Februar 2017 die GP106-410-A1-GPU auf der GeForce GTX 1060 ein, womit der GDDR5-Videospeicher bis 9 Gbps unterstützt wird.[9] Nur für den asiatischen Markt stellte Nvidia Ende Dezember 2017 noch eine 5-GB-Variante der GeForce GTX 1060 vor. Diese nutzt den GP106-350-K3-A1 im Vollausbau, allerdings mit einem auf 160 Bit reduziertem Speicherinterface.[17]

GeForce GTX 1050 und 1050 Ti

[Bearbeiten | Quelltext bearbeiten]

Am 25. Oktober 2016 stellte Nvidia die Grafikkarten GeForce GTX 1050 und GeForce GTX 1050 Ti vor, die den GP107-Grafikprozessor verwenden und sich in der Ausstattung von den zuvor veröffentlichten Pascal-Grafikkarten der Nvidia-GeForce-10-Serie für den Performance- und High-End-Markt deutlich absetzen. Nvidia zielt damit auf die Preissegmente unter 200 Euro, entsprechend wird die GeForce GTX 1050 für 125 Euro auf den Markt kommen. Ein Referenzmodell wie die Founders-Edition der GeForce GTX 1080 und GeForce GTX 1070 wird es für die GeForce GTX 1050 nicht geben. Mit der GeForce GTX 1050 und der leistungsfähigeren Variante GTX 1050 Ti positioniert sich Nvidia leistungstechnisch zwischen AMDs Radeon RX 470 und Radeon RX 460. Gegenüber den Spitzenmodellen der GeForce-10-Serie muss die GTX 1050 mit dem GP107 deutliche Leistungseinschnitte bei Spieleanwendungen hinnehmen: Auf der kleineren Die-Grundfläche von 132 mm² (vgl. GP104/GTX 1080: 314 mm²) weist der GP107 signifikant weniger Raster-, Shader- und Textureinheiten auf. Die Speichergröße wurde bei der GTX 1050 auf 2 GB GDDR5 reduziert, während die GTX 1050 Ti mit 4 GB GDDR5 sogar üppiger ausgestattet ist als die 3-GB-Variante der GeForce GTX 1060. Die Leistung erzielte selbst im übertakteten Zustand nur bei reduzierten Detailstufen in den Spielen befriedigende Ergebnisse. Leistungstests beschränkten sich auf die verbreitete Full-HD-Auflösung mit 1920 × 1080 Pixeln.[18] Die geringere Grafikleistung bewirkt dafür einen geringeren Stromverbrauch sowie einen niedrigeren Geräuschpegel als bei Nvidias Spitzenmodellen.

GeForce GT 1030

[Bearbeiten | Quelltext bearbeiten]

Am 17. Mai 2017 wurde das Einsteigermodell[19] GeForce GT 1030 vorgestellt. Dieses nutzt den GP108-Grafikprozessor, der im 14-nm-LPP-Verfahren bei Samsung gefertigt wird.[20] Von der GT 1030 gibt es kein Referenzdesign, es werden lediglich Custom-Modelle verschiedenster Hersteller verkauft. Nvidia positioniert diese Grafikkarte im Preissegment unter 80 Euro. Mit nur 384 Shadern und einem 2 GB großen GDDR5-Speicher ist die Grafikleistung stark eingeschränkt. Von Nvidias Partnern werden auch GT-1030-Karten mit DDR4-Speicher vertrieben, die zwar deutlich langsamer, dafür jedoch auch stromsparender sind.[21] Die GT 1030 unterstützt weder SLI oder G-Sync noch verfügt sie über spezielle VR-Techniken wie Simultane Multi-Projektion. Durch die geringe TDP von nur 30 W wird kein Zusatzstromstecker vom Netzteil benötigt. Die meisten Ausführungen können somit kompakt gebaut sowie rein passiv gekühlt werden und sind dann fast unhörbar. Geeignet ist die GT 1030 vor allem für Büro- und Multimediaanwendungen und grafisch weniger anspruchsvolle Spiele wie Dota 2 oder Overwatch. Bei Spielen mit hohen Grafikanforderungen wie Battlefield 1 müssen unter Full HD (1920 × 1080 Pixel) die Details stark reduziert werden, um eine flüssige Bildwiederholrate zu erreichen.[22]

Datenübersicht

[Bearbeiten | Quelltext bearbeiten]

Grafikprozessoren

[Bearbeiten | Quelltext bearbeiten]
Grafik-
chip
Fertigung Einheiten L2-
Cache
API-Support Video-
pro-
zessor
Bus-
Schnitt-
stelle
Pro-
zess
Transi-
storen
Die-
Fläche
ROP-
Parti-
tionen
ROPs Unified-Shader Textureinheiten DirectX OpenGL OpenCL CUDA Vulkan
Stream-
prozessoren
Shader-
Cluster
TAUs TMUs
GP100 16 nm 15,3 Mrd. 610 mm² 06 96 3840 60 240 240 4096 KB 12.1 4.5 1.2 6.1 1.0 VP4 PCIe 3.0
GP102 12,0 Mrd. 471 mm² 12 96 3840 30 240 240 3072 KB VP8
GP104 07,2 Mrd. 314 mm² 08 64 2560 20 160 160 2048 KB
GP106 04,4 Mrd. 200 mm² 06 48 1280 10 080 080 1536 KB
GP107 14 nm 03,3 Mrd. 132 mm² 04 32 0768 06 048 048 1024 KB
GP108 01,8 Mrd. 070 mm² 02 16 0384 03 024 024 0512 KB

Desktop-Modelldaten

[Bearbeiten | Quelltext bearbeiten]
Modell Offizieller
Launch
[Anm. 1]
Grafikprozessor (GPU) Grafikspeicher Leistungsdaten[Anm. 2] Leistungsaufnahme
Typ Aktive Einheiten Chiptakt
(MHz)[Anm. 3]
Speicher-
größe
Speicher-
takt
(MHz)
[Anm. 3]
Speicher-
interface
Rechenleistung
(in GFlops)
Füllrate Speicher-
bandbreite
MGCP
[Anm. 4]
Messwerte
[Anm. 5]
ROPs Shader-
Cluster
ALUs Textur-
einheiten
Basis Boost SP
(MAD)
DP
(FMA)
Pixel
(GP/s)
Texel
(GT/s)
Idle 3D-
Last
GeForce GT 1010[23] 13. Jan 2021 GP108 16 02 0256 016 1228 1468 2 GB GDDR5 1253 064 Bit 00752 031 023,5 023,5 040 GB/s [24]30 W k.A. k.A.
GeForce GT 1030[25] 12. Mrz. 2018 GP108-310-A1 16 03 0384 024 1151 1379 02 GB DDR4GX 1050 064 Bit 01059 033 022,1 033,1 016,8 GB/s 020 W k. A. k. A.
17. Mai 2017 GP108-300-A1 1227 1468 02 GB GDDR5X 1500 (3000) 01127 035 023,5 035,2 048 GB/s 030 W k. A. k. A.
GeForce GTX 1050 (2 GB)[26] 25. Okt. 2016 GP107-300-A1 32 05 0640 040 1354 1455 02 GB GDDR5X 1750 (3500) 128 Bit 01862 058 046,6 058,2 112 GB/s 075 W 05 W[27] 055 W[27]
GeForce GTX 1050 (3 GB)[26] 21. Mai 2018 GP107-301-K1-A1 24 06 0768 048 1392 1518 03 GB GDDR5X 1750 (3500) 096 Bit 02332 073 036,4 072,9 084 GB/s 075 W k. A. k. A.
GeForce GTX 1050 Ti[26] 25. Okt. 2016 GP107-400-A1 32 06 0768 048 1290 1382 04 GB GDDR5X 1750 (3500) 128 Bit 02123 066 044,2 066,3 112 GB/s 075 W 05 W[27] 058 W[27]
GeForce GTX 1060 (3 GB)[28] 18. Aug. 2016 GP106-300-A1 48 09 1152 072 1506 1708 03 GB GDDR5X 2000 (4000) 192 Bit 03935 123 082,0 123,0 192 GB/s 120 W 07 W[27] 115 W[27]
GeForce GTX 1060 (5 GB)[17] 26. Dez. 2017 GP106-350-K3-A1 40 10 1280 080 1506 1708 05 GB GDDR5X 2000 (4000) 160 Bit 04372 137 068,3 136,6 160 GB/s 120 W k. A. k. A.
GeForce GTX 1060 (6 GB)[28][9] 19. Jul. 2016 GP106-400-A1 48 10 1280 080 1506 1708 06 GB GDDR5X 2000 (4000) 192 Bit 04372 137 082,0 136,6 192 GB/s 120 W 06 W[27] 118 W[27]
28. Feb. 2017 GP106-410-A1 2250 (4500) 216 GB/s k. A. k. A.
GeForce GTX 1070[29] 10. Jun. 2016 GP104-200-A1 64 15 1920 120 1506 1683 08 GB GDDR5X 2000 (4000) 256 Bit 06463 202 107,7 202,0 256 GB/s 150 W 07 W[27] 147 W[27]
GeForce GTX 1070 Ti[30] 26. Okt. 2017 GP104-300-A1 64 19 2432 152 1607 1683 08 GB GDDR5X 2000 (4000) 256 Bit 08186 256 107,7 255,8 256 GB/s 180 W 09 W[27] 176 W[27]
GeForce GTX 1080[31][9] 27. Mai 2016 GP104-400-A1 64 20 2560 160 1607 1733 08 GB GDDR5X 2500 (5000) 256 Bit 08873 277 110,9 277,3 320 GB/s 180 W 07 W[27] 173 W[27]
28. Feb. 2017 GP104-410-A1 2750 (5500) 352 GB/s k. A. k. A.
GeForce GTX 1080 Ti[32] 09. Mrz. 2017 GP102-350-K1-A1 88 28 3584 224 1480 1582 11 GB GDDR5X 2750 (5500) 352 Bit 11340 354 139,2 354,4 484 GB/s 250 W 11 W[27] 230 W[27]
Titan X[33] 02. Aug. 2016 GP102-400-A1 96 28 3584 224 1417 1531 12 GB GDDR5X 2500 (5000) 384 Bit 10974 343 147,0 342,9 480 GB/s 250 W 11 W[27] 220 W[27]
Titan Xp[34] 06. Apr. 2017 GP102-450-A1 96 30 3840 240 1404 1582 12 GB GDDR5X 2850 (5700) 384 Bit 12150 380 151,9 379,7 547 GB/s 250 W 12 W[27] 245 W[27]

Notebook-Modelldaten

[Bearbeiten | Quelltext bearbeiten]
Modell Offizieller
Launch
[Anm. 1]
Grafikprozessor (GPU) Grafikspeicher Leistungsdaten[Anm. 2] MGCP
[Anm. 4]
Typ Aktive Einheiten Chiptakt
(MHz)[Anm. 3]
Speicher-
größe
Speicher-
takt
(MHz)
[Anm. 3]
Speicher-
interface
Rechenleistung
(in GFlops)
Füllrate Speicher-
bandbreite
ROPs Shader-
Cluster
ALUs Textur-
einheiten
Basis Boost SP
(MAD)
DP
(FMA)
Pixel
(GP/s)
Texel
(GT/s)
GeForce GTX 1050 03. Jan. 2017 GP107: N17P-G0-A1 32 05 0640 040 1354 1493 4 GB GDDR5X 1750 (3500) 128 Bit 1911 054 047,7 59,7 112 GB/s 75 W
01. Feb. 2017 GP106
03. Jan. 2018 GP107: N17P-G0-A1 0999–1189 1139–1328 34–40 W
GeForce GTX 1050 Ti 03. Jan. 2017 GP107: N17P-G1-A1 32 06 0768 048 1493 1620 4 GB GDDR5X 1750 (3500) 128 Bit 2488 078 051,8 077,7 112 GB/s 75 W
01. Feb. 2017 GP106
03. Jan. 2018 GP107: N17P-G1-A1 1151–1290 1290–1417 40–46 W
GeForce GTX 1060[35] 15. Aug. 2016 GP106: N17E-G1-A1 48 10 1280 080 1404 1670 6 GB GDDR5X 2000 (4000) 192 Bit 4275 134 080,2 133,6 192 GB/s 80 W
27. Jun. 2017 1063–1265 1341–1480 60–70 W
GeForce GTX 1070[35] 15. Aug. 2016 GP104: N17E-G2-A1 64 16 2048 128 1442 1645 8 GB GDDR5X 2000 (4000) 256 Bit 6738 211 105,3 210,6 256 GB/s 110 W
27. Jun. 2017 1101–1215 1265–1379 80–90 W
GeForce GTX 1080[35] 15. Aug. 2016 GP104: N17E-G3-A1 64 20 2560 160 1556 1733 8 GB GDDR5X 2500 (5000) 256 Bit 8873 277 110,9 277,3 320 GB/s 150 W
27. Jun. 2017 1101–1290 1278–1468 90–110 W
  1. a b Mit dem angegebenen Zeitpunkt ist der Termin der öffentlichen Vorstellung angegeben, nicht der Termin der Verfügbarkeit der Modelle.
  2. a b Die angegebenen Leistungswerte für die Rechenleistung über die Streamprozessoren, die Pixel- und Texelfüllrate, sowie die Speicherbandbreite sind theoretische Maximalwerte (bei Boosttakt), die nicht direkt mit den Leistungswerten anderer Architekturen vergleichbar sind. Die Gesamtleistung einer Grafikkarte hängt unter anderem davon ab, wie gut die vorhandenen Ressourcen ausgenutzt bzw. ausgelastet werden können. Außerdem gibt es noch andere, hier nicht aufgeführte Faktoren, die die Leistungsfähigkeit beeinflussen.
  3. a b c d Bei den angegebenen Taktraten handelt es sich um die von Nvidia empfohlenen bzw. festgelegten Referenzdaten, beim Speichertakt wird der I/O-Takt (in Klammern der effektive Takt) angegeben. Allerdings kann der genaue Takt durch verschiedene Taktgeber um einige Megahertz abweichen, des Weiteren liegt die finale Festlegung der Taktraten in den Händen der jeweiligen Grafikkarten-Hersteller. Daher ist es durchaus möglich, dass es Grafikkarten-Modelle gibt oder geben wird, die abweichende Taktraten aufweisen.
  4. a b Der von Nvidia angegebene MGCP-Wert entspricht nicht zwingend der maximalen Leistungsaufnahme. Dieser Wert ist auch nicht unbedingt mit dem TDP-Wert des Konkurrenten AMD vergleichbar.
  5. Die in der Tabelle aufgeführten Messwerte beziehen sich auf die reine Leistungsaufnahme von Grafikkarten, die dem Nvidia-Referenzdesign entsprechen. Um diese Werte zu messen, bedarf es einer speziellen Messvorrichtung; je nach eingesetzter Messtechnik und gegebenen Messbedingungen, inklusive des genutzten Programms, mit dem die 3D-Last erzeugt wird, können die Werte zwischen unterschiedlichen Apparaturen schwanken. Daher sind hier Messwertbereiche angegeben, die jeweils die niedrigsten, typischen und höchsten gemessenen Werte aus verschiedenen Quellen darstellen.
Commons: Nvidia-GeForce-10-Serie – Sammlung von Bildern, Videos und Audiodateien

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. a b Carsten Spille, Raffael Vötter: Nvidia Titan X im Test: Der GP102, der keine (rasend schnelle) Geforce sein darf. In: PCGH. 11. September 2016, abgerufen am 12. September 2024.
  2. Michael Günsch: Nvidia Titan Xp: GP102 im Vollausbau mit 12 GByte GDDR5X für 1.349 Euro. In: ComputerBase. 6. April 2017, abgerufen am 16. Mai 2017.
  3. Raffael Vötter: GTX 1080 Ti: Benchmarks, auch mit Overclocking. In: PCGH. 10. März 2017, abgerufen am 12. September 2024.
  4. Leonidas: Launch-Analyse nVidia GeForce GTX 1080 Ti (Seite 3). In: 3DCenter. 23. März 2017, abgerufen am 12. September 2024.
  5. Mark Mantel: Nvidia Geforce GTX 1080 und 1070: Founders Editions als "Early Access" [Update]. In: PCGH. 11. Mai 2016, abgerufen am 12. September 2024.
  6. Raffael Vötter, Carsten Spille: Geforce GTX 1080 im Test: Erster 16-nm-König mit 2 GHz im OC-Betrieb [Update: 5 Monate später]. In: PCGH. 7. Oktober 2016, abgerufen am 12. September 2024.
  7. Wolfgang Andermahr: GeForce GTX 1080 im Test: Ein Paukenschlag in 16 nm mit 1,8 GHz und GDDR5X (Seite 4). In: ComputerBase. 17. Mai 2016, abgerufen am 12. September 2024.
  8. Wolfgang Andermahr: GeForce GTX 1080 im Test: Ein Paukenschlag in 16 nm mit 1,8 GHz und GDDR5X (Seite 7). In: ComputerBase. 17. Mai 2016, abgerufen am 12. September 2024.
  9. a b c d Andrew Burnes: GeForce GTX 1080 Supercharged With Next-Gen 11 Gbps GDDR5X Memory. Nvidia Corporation, 28. Februar 2017, abgerufen am 12. September 2024 (englisch).
  10. Wolfgang Andermahr: GeForce GTX 1070 im Test: Effizient viel Leistung zum hohen Preis (Seite 9). In: ComputerBase. 9. Juni 2016, abgerufen am 12. September 2024.
  11. Raffael Vötter: GeForce GTX 1070 Ti im Test: Mut zur Lücke – mit Erfolg? [Update]. In: PCGH. 3. November 2017, abgerufen am 12. September 2024.
  12. Wolfgang Andermahr: GeForce GTX 1060 im Test: Drei Mal GP106 im Duell mit der Radeon RX 480 (Seite 1). In: ComputerBase. 19. Juli 2016, abgerufen am 12. September 2024.
  13. Wolfgang Andermahr: GeForce GTX 1060 im Test: Drei Mal GP106 im Duell mit der Radeon RX 480 (Seite 3). In: ComputerBase. 19. Juli 2016, abgerufen am 12. September 2024.
  14. Wolfgang Andermahr: GeForce GTX 1060 im Test: Drei Mal GP106 im Duell mit der Radeon RX 480 (Seite 5). In: ComputerBase. 19. Juli 2016, abgerufen am 15. September 2016.
  15. AMD zieht unter DirectX 12 & Vulkan an nVidia vorbei. In: 3DCenter. 24. Juli 2016, abgerufen am 15. September 2016.
  16. Wolfgang Andermahr: Asus GeForce GTX 1060 3 GB im Test: 3.072 MB VRAM reichen nicht immer aus (Seite 4). In: ComputerBase. 12. September 2016, abgerufen am 12. September 2024.
  17. a b NVIDIA GeForce GTX 1060 5GB. In: VideoCardz. 16. Dezember 2017, abgerufen am 12. September 2024 (englisch).
  18. Carsten Spille, Raffael Vötter: Geforce GTX 1050 (Ti) im Test: Pascal'sches Sparmodell ab 125 Euro (Update mit Multi-res Shading). In: PCGH. 25. Oktober 2016, abgerufen am 12. September 2024.
  19. NVIDIA GeForce GT 1030. NVIDIA Corporation, archiviert vom Original am 20. April 2018; abgerufen am 12. September 2024.
  20. Mark Mantel: Einsteiger-Grafikkarten: RX 560 und GT 1030 verfügbar. In: PCGH. 17. Mai 2017, abgerufen am 12. September 2024.
  21. Marc Sauter: Grafikkarte: Obacht bei der Geforce GT 1030 mit DDR4-Speicher. In: golem.de. 4. April 2018, abgerufen am 12. September 2024.
  22. Wolfgang Andermahr: RX 550 und GT 1030 im Test: GPUs für Dota 2 oder Overwatch und UHD-YouTube. In: ComputerBase. 23. Mai 2017, abgerufen am 29. November 2017.
  23. NVIDIA GeForce GT 1010. In: TechPowerUp. Abgerufen am 15. Januar 2021 (englisch).
  24. NVIDIA GeForce GT 1010. In: TechPowerUp. Abgerufen am 12. September 2024 (englisch).
  25. NVIDIA GeForce GT 1030 Specifications. Nvidia Corporation, archiviert vom Original am 20. Mai 2017; abgerufen am 12. September 2024 (englisch).
  26. a b c NVIDIA GeForce GTX 1050. Nvidia Corporation, archiviert vom Original am 19. Oktober 2016; abgerufen am 10. Januar 2017 (englisch).
  27. a b c d e f g h i j k l m n o p q r s t Leonidas: Stromverbrauch aktueller und vergangener Grafikkarten. In: 3DCenter. 23. Februar 2014, abgerufen am 12. September 2024.
  28. a b NVIDIA GeForce GTX 1060. Nvidia Corporation, abgerufen am 8. Juli 2016 (englisch).
  29. NVIDIA GeForce GTX 1070. Nvidia Corporation, archiviert vom Original am 6. Juli 2016; abgerufen am 19. Mai 2016 (englisch).
  30. NVIDIA GeForce GTX 1070 Ti. Nvidia Corporation, abgerufen am 26. Oktober 2017 (englisch).
  31. NVIDIA GeForce GTX 1080. Nvidia Corporation, abgerufen am 7. Mai 2016 (englisch).
  32. NVIDIA GeForce GTX 1080 Ti. Nvidia Corporation, abgerufen am 1. März 2017 (englisch).
  33. NVIDIA TITAN X. Nvidia Corporation, archiviert vom Original am 22. Dezember 2016; abgerufen am 12. September 2024 (englisch).
  34. NVIDIA TITAN Xp. Nvidia Corporation, archiviert vom Original am 1. Januar 2018; abgerufen am 12. September 2024 (englisch).
  35. a b c GeForce GTX 10-Series Notebooks. Nvidia Corporation, archiviert vom Original am 19. August 2016; abgerufen am 10. Januar 2017 (englisch).