Nvidia-GeForce-20-Serie
Die GeForce-20-Serie ist eine Serie von Grafikchips des Unternehmens Nvidia und Nachfolger der GeForce-10-Serie. Die Produkte der Serie deckten ausschließlich den gehobenen Midrange- und High-End- bzw. Enthusiastenmarkt ab; der Einsteiger- und untere Midrange- bzw. Mainstream-Markt dieser Grafikkartengeneration wurde von einer separaten Modellreihe, der GeForce-16-Serie, bedient.
Im Vorfeld der Gamescom stellte Nvidia die GeForce-20-Serie am 20. August 2018 vor. Die unter dem Codenamen „Turing“ (nach dem britischen Mathematiker Alan Turing) laufende Serie legte erstmals im Endverbraucherbereich den Schwerpunkt auf Hardware-beschleunigtes Echtzeit-Raytracing. Um diesen Aspekt zu unterstreichen, änderte Nvidia das bisher in Verkaufsnamen meist verwendete Präfix GTX in RTX um.[1] Eine weitere Neuerung bestand in der Verwendung von GDDR6-Speicher. Verkaufsstart war der 20. September 2018.
Die GeForce-20-Serie wurde im September 2020 von der GeForce-30-Serie abgelöst.
Turing-Architektur
[Bearbeiten | Quelltext bearbeiten]Die Turing-Architektur ist die direkte Weiterentwicklung der Volta-Architektur, welche aber nie bei den Grafikkarten der GeForce-Serie zum Einsatz kam. Die Volta-Architektur kam nur bei der Titan-Serie, sowie bei den professionellen Serien, Quadro und Tesla, zum Einsatz. Bei den GeForce-Grafikkarten löst die Turing-Architektur die Pascal-Architektur der GeForce-10-Serie ab.
Die Grafikprozessoren, welche auf der Turing-Architektur basieren, setzen sich aus sogenannten Graphics-Processing-Cluster (GPC) zusammen, welche teilweise auch als Raster-Engines bezeichnet werden. Jeder Graphics-Processing-Cluster enthält je 4 oder 6 Texture-Processing-Cluster (TPC), die teilweise nicht komplett aktiviert sind. Ein Texture-Processing-Cluster besteht dabei aus zwei Shader-Clustern, welche von Nvidia als Streaming-Multiprozessoren (SM) bezeichnet werden. Diese Streaming-Multiprozessoren, der Funktionsblock, der die wichtigsten Einheiten umfasst, weisen gegenüber der Pascal-Architektur erhebliche Veränderungen auf und sind teilweise neu geordnet worden.[2] Dabei sind jedem Streaming-Multiprozessor zugeordnet:
- 64 FP32-Einheiten für 32-bit-Gleitkomma-Zahlen und 2 FP64-Einheiten für 64-bit-Gleitkomma-Zahlen
- 64 INT32-Einheiten für 32-bit-Ganzzahlen, die parallel zu den Gleitkommaeinheiten arbeiten können
- 4 Textureinheiten, bestehend aus je einer Texture Mapping Unit und einer Texture Address Unit
- 16 Load/Store-Einheiten
- 16 Special-Function-Units
- 8 Tensoreinheiten
- 1 Raytracing-Einheit
Bei Pascal bestand ein Streaming-Multiprozessor noch aus 128 FP32-Einheit welche entweder 32-bit-Gleitkomma-Zahlen (Floating Point) oder 32-bit-Ganzzahlen (Integer) ausgeben können. Bei Turing wurde dieses System aufgegeben und stattdessen die FP32-Einheit auf 64 reduziert, sowie neu 64 INT32-Einheiten hinzugefügt. Dadurch können beide Operationen parallel ausgeführt werden.[2] Alternativ können die FP32-Einheiten auch 16-bit-Gleitkomma-Zahlen (halbe Genauigkeit) im Verhältnis 2:1 berechnen (Pascal 1:1).[2]
Von der Volta-Architektur übernommen wurden die Tensor-Kerne für KI-Berechnungen. Dabei handelt es sich laut Nvidia um FP16-Einheiten für Matrizen-Berechnungen. Sie können aber auch FP32-, INT4- und INT8-Befehle ausführen, was aber nur bei professionellen Anwendungen von Bedeutung ist. Bei 3D-Anwendungen sind laut Nvidia nur die FP16-Berechnungen der Tensorkerne von Bedeutung.[2]
Die von Nvidias Marketing am stärksten hervorgehobene Neuerung der Turing-Architektur ist die hardwareseitige Raytracing-Unterstützung. Dazu verfügt jeder Streaming-Multiprozessor über eine Raytracing-Einheit, teilweise auch als RT Core bezeichnet. Da Nvidia keine Angaben macht, wie diese funktionieren, lässt sich derzeit auch nicht rekonstruieren, was eine RT-Einheit genau tut. Nvidia gibt lediglich die Anzahl an RT-Einheiten pro Modell, sowie eine Füllrate von Gigarays pro Sekunde an.
Datenübersicht
[Bearbeiten | Quelltext bearbeiten]Grafikprozessoren
[Bearbeiten | Quelltext bearbeiten]Grafik- chip |
Fertigung | Einheiten | L2- Cache |
API-Support | Video- pro- zessor |
Bus- Schnitt- stelle |
NV- Link | ||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Pro- zess |
Transis- toren |
Die- Fläche |
ROPs | Unified-Shader | Textur- einheiten |
Tensor- Kerne |
RT- Kerne |
DirectX | OpenGL | OpenCL | CUDA | Vulkan | |||||||
GPC | SM | ALUs | |||||||||||||||||
TU102 | 12 nm | 18,6 Mrd. | 754 mm² | 96 | 6 | 72 | 4608 | 288 | 576 | 72 | 6 MB | 12.2 | 4.6 | 3.0 | 7.5 | 1.2 | VP10 | PCIe 3.0 | 2× |
TU104 | 13,6 Mrd. | 545 mm² | 64 | 6 | 48 | 3072 | 192 | 384 | 48 | 4 MB | |||||||||
TU106 | 10,6 Mrd. | 445 mm² | 64 | 3 | 36 | 2304 | 144 | 288 | 36 | 4 MB | – |
Desktop-Modelldaten
[Bearbeiten | Quelltext bearbeiten]Modell | Offizieller Launch |
Grafikprozessor (GPU) | Grafikspeicher | Leistungsdaten[Anm. 1] | Leistungsaufnahme | ||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Typ | Aktive Einheiten | Chiptakt[Anm. 2] | Größe |
Takt [Anm. 2] |
Inter- face |
Rechenleistung (in TFlops) |
Füllrate | Speicher- bandbreite (in GB/s) |
MGCP [Anm. 3] |
Messwerte[Anm. 4] | |||||||||||||
ROPs | SM | ALUs | Textur- einheiten |
Tensor- Kerne |
RT- Kerne |
Basis | Boost | Pixel (GP/s) |
Texel (GT/s) |
Rays (GR/s) |
Idle | 3D- Last | |||||||||||
32 bit | 64 bit | 16 bit | |||||||||||||||||||||
GeForce RTX 2060[3] | 7. Jan. 2019 | TU106 | 48 | 30 | 1920 | 120 | 240 | 30 | 1365 MHz | 1680 MHz | 6 GB GDDR6 | 7001 MHz | 192 Bit | 6,45 | 0,20 | 51,60 | 80,6 | 201,6 | ≈5 | 336 | 160 W | 9 W[4] | 160 W[4] |
7. Dez. 2021 | 34 | 2176 | 136 | 272 | 34 | 1470 MHz | 1650 MHz | 12 GB GDDR6 | 7,18 | 0,22 | 57,44 | 79,2 | 224,4 | ≈6 | 184 W | k. A. | k. A. | ||||||
GeForce RTX 2060 Super[5] | 9. Jul. 2019 | 64 | 34 | 2176 | 136 | 272 | 34 | 1470 MHz | 1650 MHz | 8 GB GDDR6 | 7001 MHz | 256 Bit | 7,18 | 0,22 | 57,44 | 105,6 | 224,4 | ≈6 | 448 | 175 W | 8 W[4] | 176 W[4] | |
GeForce RTX 2070[6] | 17. Okt. 2018 | 36 | 2304 | 144 | 288 | 36 | 1410 MHz | 1620 MHz | 7001 MHz | 7,46 | 0,23 | 59,72 | 103,7 | 233,3 | ≈6 | 175 / 185 W | 11 W[4] | 185 W[4] | |||||
GeForce RTX 2070 Super[7] | 9. Jul. 2019 | TU104 | 64 | 40 | 2560 | 160 | 320 | 40 | 1605 MHz | 1770 MHz | 7001 MHz | 9,06 | 0,28 | 72,48 | 113,3 | 283,2 | ≈7 | 215 W | 10 W[4] | 215 W[4] | |||
GeForce RTX 2080[8] | 20. Sep. 2018 | 46 | 2944 | 184 | 368 | 46 | 1515 MHz | 1710 MHz | 7001 MHz | 10,07 | 0,32 | 80,56 | 109,4 | 314,6 | ≈8 | 215 / 225 W | 11 W[4] | 228 W[4] | |||||
GeForce RTX 2080 Super[9] | 23. Jul. 2019 | 48 | 3072 | 192 | 384 | 48 | 1650 MHz | 1815 MHz | 7751 MHz | 11,15 | 0,35 | 89,20 | 116,2 | 348,5 | ≈8 | 496 | 250 W | 9 W[4] | 246 W[4] | ||||
GeForce RTX 2080 Ti[10] | 27. Sep. 2018 | TU102 | 88 | 68 | 4352 | 272 | 544 | 68 | 1350 MHz | 1545 MHz | 11 GB GDDR6 | 7001 MHz | 352 Bit | 13,45 | 0,42 | 107,60 | 136 | 420,2 | ≈10 | 616 | 250 / 260 W | 13 W[4] | 272 W[4] |
Titan RTX[11] | 18. Dez. 2018 | 96 | 72 | 4608 | 288 | 576 | 72 | 1350 MHz | 1770 MHz | 24 GB GDDR6 | 7001 MHz | 384 Bit | 16,31 | 0,51 | 130,48 | 169,9 | 509,8 | ≈11 | 672 | 280 W | 13 W[4] | 290 W[4] |
Notebook-Modelldaten
[Bearbeiten | Quelltext bearbeiten]Modell | Offizieller Launch |
Grafikprozessor (GPU) | Grafikspeicher | Leistungsdaten[Anm. 1] | MGCP [Anm. 3] | |||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Typ | Aktive Einheiten | Chiptakt [Anm. 2] |
Speicher- größe |
Speicher- takt[Anm. 2] |
Speicher- interface |
Rechenleistung (in TFlops) |
Füllrate | Speicher- bandbreite (in GB/s) | ||||||||||||
ROPs | SM | ALUs | Textur- einheiten |
Tensor- Kerne |
RT- Kerne |
Basis | Boost | 32 bit | 64 bit | Pixel (GP/s) |
Texel (GT/s) |
Rays (GR/s) | ||||||||
GeForce RTX 2050 Max-Q | 17. Dez. 2021 | GA107 | 32 | 16 | 2048 | 64 | 64 | 32 | 832 MHz | 1155 MHz | 4 GB GDDR6 | 1475 MHz | 64 Bit | 4,55 | 0,14 | 36,9 | 37,9 | k. A. | 94,4 | 30 W |
GeForce RTX 2050 Mobile | 17. Dez. 2021 | GA107 | 32 | 16 | 2048 | 64 | 64 | 32 | 735 MHz | 1245 MHz | 1750 MHz | 192 Bit | 5,10 | 0,15 | 39,8 | 79,7 | k.A. | 112,0 | 30 W | |
GeForce RTX 2060 Max-Q | 29. Jan. 2019 | TU106 | 48 | 30 | 1920 | 120 | 240 | 30 | 975 MHz | 1185 MHz | 6 GB GDDR6 | 5500 MHz | 4,73 | 0,14 | 56,9 | 142,2 | k. A. | 94,4 | 30 W | |
GeForce RTX 2060 Mobile | 29. Jan. 2019 | TU106 | 48 | 30 | 1920 | 120 | 240 | 30 | 960 MHz | 1200 MHz | 5500 MHz | 4,6 | 0,14 | 56,9 | 144 | k. A. | 264 | 65 W | ||
GeForce RTX 2060 Super Mobile | 10. Apr. 2020 | TU106 | 64 | 34 | 2176 | 136 | 272 | 34 | 1305 MHz | 1485 MHz | 8 GB GDDR6 | 7001 MHz | 256 Bit | 6,46 | 0,2 | 95 | 202 | k. A. | 448 | 100 W |
GeForce RTX 2070 Max-Q | 29. Jan. 2019 | TU106 | 64 | 36 | 2304 | 144 | 288 | 36 | 885 MHz | 1185 MHz | 7001 MHz | 5,46 | 0,17 | 75,8 | 170,6 | k. A. | 448 | 90 W | ||
GeForce RTX 2070 Mobile | 29. Jan. 2019 | TU106 | 64 | 36 | 2304 | 144 | 288 | 36 | 1215 MHz | 1440 MHz | 7001 MHz | 6,64 | 0,21 | 92,2 | 207,4 | k. A. | 448 | 115 W | ||
GeForce RTX 2070 Super Max-Q | 2. Apr. 2020 | TU104 | 64 | 40 | 2560 | 160 | 320 | 40 | 930 MHz | 1155 MHz | 5500 MHz | 5,91 | 0,18 | 73,9 | 184,8 | k. A. | 352 | 80 W | ||
GeForce RTX 2070 Super Mobile | 2. Apr. 2020 | TU104 | 64 | 40 | 2560 | 160 | 320 | 40 | 1140 MHz | 1380 MHz | 7001 MHz | 7,07 | 0,22 | 88,3 | 220,8 | k. A. | 448 | 115 W | ||
GeForce RTX 2080 Max-Q | 29. Jan. 2019 | TU104 | 64 | 46 | 2944 | 184 | 368 | 46 | 735 MHz | 1095 MHz | 6000 MHz | 6,45 | 0,2 | 70,1 | 201,5 | k. A. | 384 | 90 W | ||
GeForce RTX 2080 Mobile | 29. Jan. 2019 | TU104 | 64 | 46 | 2944 | 184 | 368 | 46 | 1380 MHz | 1590 MHz | 6000 MHz | 9,36 | 0,29 | 101,8 | 292,6 | k. A. | 384 | 150 W | ||
GeForce RTX 2080 Super Max-Q | 2. Apr. 2020 | TU104 | 64 | 48 | 3072 | 192 | 384 | 48 | 735 MHz | 975 MHz | 5500 MHz | 5,99 | 0,19 | 62,4 | 187,2 | k. A. | 352 | 80 W | ||
GeForce RTX 2080 Super Mobile | 2. Apr. 2020 | TU104 | 64 | 48 | 3072 | 192 | 384 | 48 | 1365 MHz | 1560 MHz | 7001 MHz | 9,59 | 0,3 | 99,8 | 299,5 | k. A. | 448 | 150 W |
Anmerkungen
[Bearbeiten | Quelltext bearbeiten]- ↑ a b Die angegebenen Leistungswerte für die Rechenleistung über die Streamprozessoren, die Pixel- und Texelfüllrate, sowie die Speicherbandbreite sind theoretische Maximalwerte (bei Boosttakt), die nicht direkt mit den Leistungswerten anderer Architekturen vergleichbar sind. Die Gesamtleistung einer Grafikkarte hängt unter anderem davon ab, wie gut die vorhandenen Ressourcen ausgenutzt bzw. ausgelastet werden können. Außerdem gibt es noch andere, hier nicht aufgeführte Faktoren, die die Leistungsfähigkeit beeinflussen.
- ↑ a b c d Bei den angegebenen Taktraten handelt es sich um die von Nvidia empfohlenen bzw. festgelegten Referenzdaten, beim Speichertakt wird der effektive Takt angegeben. Allerdings kann der genaue Takt durch verschiedene Taktgeber um einige Megahertz abweichen, des Weiteren liegt die finale Festlegung der Taktraten in den Händen der jeweiligen Grafikkarten-Hersteller. Daher ist es durchaus möglich, dass es Grafikkarten-Modelle gibt oder geben wird, die abweichende Taktraten besitzen.
- ↑ a b Der von Nvidia angegebene MGCP-Wert entspricht nicht zwingend der maximalen Leistungsaufnahme. Dieser Wert ist auch nicht unbedingt mit dem TDP-Wert des Konkurrenten AMD vergleichbar.
- ↑ Die in der Tabelle aufgeführten Messwerte beziehen sich auf die reine Leistungsaufnahme von Grafikkarten, die dem Nvidia-Referenzdesign entsprechen. Um diese Werte zu messen, bedarf es einer speziellen Messvorrichtung; je nach eingesetzter Messtechnik und gegebenen Messbedingungen, inklusive des genutzten Programms, mit dem die 3D-Last erzeugt wird, können die Werte zwischen unterschiedlichen Apparaturen schwanken. Daher sind hier Messwertbereiche angegeben, die jeweils die niedrigsten, typischen und höchsten gemessenen Werte aus verschiedenen Quellen darstellen.
Weblinks
[Bearbeiten | Quelltext bearbeiten]Einzelnachweise
[Bearbeiten | Quelltext bearbeiten]- ↑ Scott Martin: What’s the Difference Between NVIDIA RTX and GTX? 1. November 2019, abgerufen am 4. Juli 2024 (amerikanisches Englisch).
- ↑ a b c d Turing TU102, -104, -106: Die Technik der Nvidia GeForce RTX 2080 Ti, 2080 & 2070 (Seite 2). Computerbase, 14. September 2018, abgerufen am 4. Juli 2019.
- ↑ NVIDIA GeForce RTX 2060. Nvidia Corporation, 7. Januar 2019, abgerufen am 7. Januar 2019.
- ↑ a b c d e f g h i j k l m n o p Stromverbrauchs-Überblick für DirectX 11/12 Grafikkarten – nVidia GeForce 16/20 Serie (Turing). 3dcenter.org, 4. Juli 2021, abgerufen am 17. Mai 2022.
- ↑ NVIDIA GeForce RTX 2060 Super. Nvidia Corporation, 2. Juli 2019, abgerufen am 3. Juli 2019.
- ↑ NVIDIA GeForce RTX 2070. Nvidia Corporation, 20. August 2018, abgerufen am 28. September 2018.
- ↑ NVIDIA GeForce RTX 2070 Super. Nvidia Corporation, 2. Juli 2019, abgerufen am 3. Juli 2019.
- ↑ NVIDIA GeForce RTX 2080. Nvidia Corporation, 20. August 2018, abgerufen am 28. September 2018.
- ↑ NVIDIA GeForce RTX 2080 Super. Nvidia Corporation, 2. Juli 2019, abgerufen am 3. Juli 2019.
- ↑ NVIDIA GeForce RTX 2080 Ti. Nvidia Corporation, 20. August 2018, abgerufen am 28. September 2018.
- ↑ NVIDIA TITAN RTX jetzt verfügbar. Abgerufen am 29. Mai 2020 (deutsch).