Nvidia-GeForce-20-Serie

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
Logo der Nvidia-GeForce-20-Serie
ASUS GeForce RTX 2070 ROG STRIX Advanced - 8 GB GDDR6

Die GeForce-20-Serie ist eine Serie von Grafikchips des Unternehmens Nvidia und Nachfolger der GeForce-10-Serie. Die Produkte der Serie deckten ausschließlich den gehobenen Midrange- und High-End- bzw. Enthusiastenmarkt ab; der Einsteiger- und untere Midrange- bzw. Mainstream-Markt dieser Grafikkartengeneration wurde von einer separaten Modellreihe, der GeForce-16-Serie, bedient.

Im Vorfeld der Gamescom stellte Nvidia die GeForce-20-Serie am 20. August 2018 vor. Die unter dem Codenamen „Turing“ (nach dem britischen Mathematiker Alan Turing) laufende Serie legte erstmals im Endverbraucherbereich den Schwerpunkt auf Hardware-beschleunigtes Echtzeit-Raytracing. Um diesen Aspekt zu unterstreichen, änderte Nvidia das bisher in Verkaufsnamen meist verwendete Präfix GTX in RTX um.[1] Eine weitere Neuerung bestand in der Verwendung von GDDR6-Speicher. Verkaufsstart war der 20. September 2018.

Die GeForce-20-Serie wurde im September 2020 von der GeForce-30-Serie abgelöst.

Turing-Architektur

[Bearbeiten | Quelltext bearbeiten]

Die Turing-Architektur ist die direkte Weiterentwicklung der Volta-Architektur, welche aber nie bei den Grafikkarten der GeForce-Serie zum Einsatz kam. Die Volta-Architektur kam nur bei der Titan-Serie, sowie bei den professionellen Serien, Quadro und Tesla, zum Einsatz. Bei den GeForce-Grafikkarten löst die Turing-Architektur die Pascal-Architektur der GeForce-10-Serie ab.

Die Grafikprozessoren, welche auf der Turing-Architektur basieren, setzen sich aus sogenannten Graphics-Processing-Cluster (GPC) zusammen, welche teilweise auch als Raster-Engines bezeichnet werden. Jeder Graphics-Processing-Cluster enthält je 4 oder 6 Texture-Processing-Cluster (TPC), die teilweise nicht komplett aktiviert sind. Ein Texture-Processing-Cluster besteht dabei aus zwei Shader-Clustern, welche von Nvidia als Streaming-Multiprozessoren (SM) bezeichnet werden. Diese Streaming-Multiprozessoren, der Funktionsblock, der die wichtigsten Einheiten umfasst, weisen gegenüber der Pascal-Architektur erhebliche Veränderungen auf und sind teilweise neu geordnet worden.[2] Dabei sind jedem Streaming-Multiprozessor zugeordnet:

  • 64 FP32-Einheiten für 32-bit-Gleitkomma-Zahlen und 2 FP64-Einheiten für 64-bit-Gleitkomma-Zahlen
  • 64 INT32-Einheiten für 32-bit-Ganzzahlen, die parallel zu den Gleitkommaeinheiten arbeiten können
  • 4 Textureinheiten, bestehend aus je einer Texture Mapping Unit und einer Texture Address Unit
  • 16 Load/Store-Einheiten
  • 16 Special-Function-Units
  • 8 Tensoreinheiten
  • 1 Raytracing-Einheit

Bei Pascal bestand ein Streaming-Multiprozessor noch aus 128 FP32-Einheit welche entweder 32-bit-Gleitkomma-Zahlen (Floating Point) oder 32-bit-Ganzzahlen (Integer) ausgeben können. Bei Turing wurde dieses System aufgegeben und stattdessen die FP32-Einheit auf 64 reduziert, sowie neu 64 INT32-Einheiten hinzugefügt. Dadurch können beide Operationen parallel ausgeführt werden.[2] Alternativ können die FP32-Einheiten auch 16-bit-Gleitkomma-Zahlen (halbe Genauigkeit) im Verhältnis 2:1 berechnen (Pascal 1:1).[2]

Von der Volta-Architektur übernommen wurden die Tensor-Kerne für KI-Berechnungen. Dabei handelt es sich laut Nvidia um FP16-Einheiten für Matrizen-Berechnungen. Sie können aber auch FP32-, INT4- und INT8-Befehle ausführen, was aber nur bei professionellen Anwendungen von Bedeutung ist. Bei 3D-Anwendungen sind laut Nvidia nur die FP16-Berechnungen der Tensorkerne von Bedeutung.[2]

Die von Nvidias Marketing am stärksten hervorgehobene Neuerung der Turing-Architektur ist die hardwareseitige Raytracing-Unterstützung. Dazu verfügt jeder Streaming-Multiprozessor über eine Raytracing-Einheit, teilweise auch als RT Core bezeichnet. Da Nvidia keine Angaben macht, wie diese funktionieren, lässt sich derzeit auch nicht rekonstruieren, was eine RT-Einheit genau tut. Nvidia gibt lediglich die Anzahl an RT-Einheiten pro Modell, sowie eine Füllrate von Gigarays pro Sekunde an.

Datenübersicht

[Bearbeiten | Quelltext bearbeiten]

Grafikprozessoren

[Bearbeiten | Quelltext bearbeiten]
Grafik-
chip
Fertigung Einheiten L2-
Cache
API-Support Video-
pro-
zessor
Bus-
Schnitt-
stelle
NV-
Link
Pro-
zess
Transis-
toren
Die-
Fläche
ROPs Unified-Shader Textur-
einheiten
Tensor-
Kerne
RT-
Kerne
DirectX OpenGL OpenCL CUDA Vulkan
GPC SM ALUs
TU102 12 nm 18,6 Mrd. 754 mm² 96 6 72 4608 288 576 72 6 MB 12.2 4.6 3.0 7.5 1.2 VP10 PCIe 3.0
TU104 13,6 Mrd. 545 mm² 64 6 48 3072 192 384 48 4 MB
TU106 10,6 Mrd. 445 mm² 64 3 36 2304 144 288 36 4 MB

Desktop-Modelldaten

[Bearbeiten | Quelltext bearbeiten]
Modell Offizieller
Launch
Grafikprozessor (GPU) Grafikspeicher Leistungsdaten[Anm. 1] Leistungsaufnahme
Typ Aktive Einheiten Chiptakt[Anm. 2]  
Größe
 
Takt
[Anm. 2]
 
Inter-
face
Rechenleistung
(in TFlops)
Füllrate Speicher-
bandbreite

(in GB/s)
MGCP
[Anm. 3]
Messwerte[Anm. 4]
ROPs SM ALUs Textur-
einheiten
Tensor-
Kerne
RT-
Kerne
Basis Boost Pixel
(GP/s)
Texel
(GT/s)
Rays
(GR/s)
Idle 3D-
Last
32 bit 64 bit 16 bit
GeForce RTX 2060[3] 7. Jan. 2019 TU106 48 30 1920 120 240 30 1365 MHz 1680 MHz 06 GB GDDR6 7001 MHz 192 Bit 06,45 0,20 051,60 80,6 201,6 0≈5 336 160 W 9 W[4] 160 W[4]
7. Dez. 2021 34 2176 136 272 34 1470 MHz 1650 MHz 12 GB GDDR6 07,18 0,22 057,44 79,2 224,4 0≈6 184 W k. A. k. A.
GeForce RTX 2060 Super[5] 9. Jul. 2019 64 34 2176 136 272 34 1470 MHz 1650 MHz 08 GB GDDR6 7001 MHz 256 Bit 07,18 0,22 057,44 105,6 224,4 0≈6 448 175 W 8 W[4] 176 W[4]
GeForce RTX 2070[6] 17. Okt. 2018 36 2304 144 288 36 1410 MHz 1620 MHz 7001 MHz 07,46 0,23 059,72 103,7 233,3 0≈6 175 / 185 W 11 W[4] 185 W[4]
GeForce RTX 2070 Super[7] 9. Jul. 2019 TU104 64 40 2560 160 320 40 1605 MHz 1770 MHz 7001 MHz 09,06 0,28 072,48 113,3 283,2 0≈7 215 W 10 W[4] 215 W[4]
GeForce RTX 2080[8] 20. Sep. 2018 46 2944 184 368 46 1515 MHz 1710 MHz 7001 MHz 10,07 0,32 080,56 109,4 314,6 0≈8 215 / 225 W 11 W[4] 228 W[4]
GeForce RTX 2080 Super[9] 23. Jul. 2019 48 3072 192 384 48 1650 MHz 1815 MHz 7751 MHz 11,15 0,35 089,20 116,2 348,5 0≈8 496 250 W 9 W[4] 246 W[4]
GeForce RTX 2080 Ti[10] 27. Sep. 2018 TU102 88 68 4352 272 544 68 1350 MHz 1545 MHz 11 GB GDDR6 7001 MHz 352 Bit 13,45 0,42 107,60 136 420,2 ≈10 616 250 / 260 W 13 W[4] 272 W[4]
Titan RTX[11] 18. Dez. 2018 96 72 4608 288 576 72 1350 MHz 1770 MHz 24 GB GDDR6 7001 MHz 384 Bit 16,31 0,51 130,48 169,9 509,8 ≈11 672 280 W 13 W[4] 290 W[4]

Notebook-Modelldaten

[Bearbeiten | Quelltext bearbeiten]
Modell Offizieller
Launch
Grafikprozessor (GPU) Grafikspeicher Leistungsdaten[Anm. 1] MGCP
[Anm. 3]
Typ Aktive Einheiten Chiptakt
[Anm. 2]
Speicher-
größe
Speicher-
takt[Anm. 2]
Speicher-
interface
Rechenleistung
(in TFlops)
Füllrate Speicher-
bandbreite

(in GB/s)
ROPs SM ALUs Textur-
einheiten
Tensor-
Kerne
RT-
Kerne
Basis Boost 32 bit 64 bit Pixel
(GP/s)
Texel
(GT/s)
Rays
(GR/s)
GeForce RTX 2050 Max-Q 17. Dez. 2021 GA107 32 16 2048 64 64 32 832 MHz 1155 MHz 4 GB GDDR6 1475 MHz 64 Bit 4,55 0,14 36,9 37,9 k. A. 94,4 30 W
GeForce RTX 2050 Mobile 17. Dez. 2021 GA107 32 16 2048 64 64 32 735 MHz 1245 MHz 1750 MHz 192 Bit 5,10 0,15 39,8 79,7 k.A. 112,0 30 W
GeForce RTX 2060 Max-Q 29. Jan. 2019 TU106 48 30 1920 120 240 30 975 MHz 1185 MHz 6 GB GDDR6 5500 MHz 4,73 0,14 56,9 142,2 k. A. 94,4 30 W
GeForce RTX 2060 Mobile 29. Jan. 2019 TU106 48 30 1920 120 240 30 960 MHz 1200 MHz 5500 MHz 4,6 0,14 56,9 144 k. A. 264 65 W
GeForce RTX 2060 Super Mobile 10. Apr. 2020 TU106 64 34 2176 136 272 34 1305 MHz 1485 MHz 8 GB GDDR6 7001 MHz 256 Bit 6,46 0,2 95 202 k. A. 448 100 W
GeForce RTX 2070 Max-Q 29. Jan. 2019 TU106 64 36 2304 144 288 36 885 MHz 1185 MHz 7001 MHz 5,46 0,17 75,8 170,6 k. A. 448 90 W
GeForce RTX 2070 Mobile 29. Jan. 2019 TU106 64 36 2304 144 288 36 1215 MHz 1440 MHz 7001 MHz 6,64 0,21 92,2 207,4 k. A. 448 115 W
GeForce RTX 2070 Super Max-Q 2. Apr. 2020 TU104 64 40 2560 160 320 40 930 MHz 1155 MHz 5500 MHz 5,91 0,18 73,9 184,8 k. A. 352 80 W
GeForce RTX 2070 Super Mobile 2. Apr. 2020 TU104 64 40 2560 160 320 40 1140 MHz 1380 MHz 7001 MHz 7,07 0,22 88,3 220,8 k. A. 448 115 W
GeForce RTX 2080 Max-Q 29. Jan. 2019 TU104 64 46 2944 184 368 46 735 MHz 1095 MHz 6000 MHz 6,45 0,2 70,1 201,5 k. A. 384 90 W
GeForce RTX 2080 Mobile 29. Jan. 2019 TU104 64 46 2944 184 368 46 1380 MHz 1590 MHz 6000 MHz 9,36 0,29 101,8 292,6 k. A. 384 150 W
GeForce RTX 2080 Super Max-Q 2. Apr. 2020 TU104 64 48 3072 192 384 48 735 MHz 975 MHz 5500 MHz 5,99 0,19 62,4 187,2 k. A. 352 80 W
GeForce RTX 2080 Super Mobile 2. Apr. 2020 TU104 64 48 3072 192 384 48 1365 MHz 1560 MHz 7001 MHz 9,59 0,3 99,8 299,5 k. A. 448 150 W
  1. a b Die angegebenen Leistungswerte für die Rechenleistung über die Streamprozessoren, die Pixel- und Texelfüllrate, sowie die Speicherbandbreite sind theoretische Maximalwerte (bei Boosttakt), die nicht direkt mit den Leistungswerten anderer Architekturen vergleichbar sind. Die Gesamtleistung einer Grafikkarte hängt unter anderem davon ab, wie gut die vorhandenen Ressourcen ausgenutzt bzw. ausgelastet werden können. Außerdem gibt es noch andere, hier nicht aufgeführte Faktoren, die die Leistungsfähigkeit beeinflussen.
  2. a b c d Bei den angegebenen Taktraten handelt es sich um die von Nvidia empfohlenen bzw. festgelegten Referenzdaten, beim Speichertakt wird der effektive Takt angegeben. Allerdings kann der genaue Takt durch verschiedene Taktgeber um einige Megahertz abweichen, des Weiteren liegt die finale Festlegung der Taktraten in den Händen der jeweiligen Grafikkarten-Hersteller. Daher ist es durchaus möglich, dass es Grafikkarten-Modelle gibt oder geben wird, die abweichende Taktraten besitzen.
  3. a b Der von Nvidia angegebene MGCP-Wert entspricht nicht zwingend der maximalen Leistungsaufnahme. Dieser Wert ist auch nicht unbedingt mit dem TDP-Wert des Konkurrenten AMD vergleichbar.
  4. Die in der Tabelle aufgeführten Messwerte beziehen sich auf die reine Leistungsaufnahme von Grafikkarten, die dem Nvidia-Referenzdesign entsprechen. Um diese Werte zu messen, bedarf es einer speziellen Messvorrichtung; je nach eingesetzter Messtechnik und gegebenen Messbedingungen, inklusive des genutzten Programms, mit dem die 3D-Last erzeugt wird, können die Werte zwischen unterschiedlichen Apparaturen schwanken. Daher sind hier Messwertbereiche angegeben, die jeweils die niedrigsten, typischen und höchsten gemessenen Werte aus verschiedenen Quellen darstellen.
Commons: Nvidia-GeForce-20-Serie – Sammlung von Bildern, Videos und Audiodateien

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. Scott Martin: What’s the Difference Between NVIDIA RTX and GTX? 1. November 2019, abgerufen am 4. Juli 2024 (amerikanisches Englisch).
  2. a b c d Turing TU102, -104, -106: Die Technik der Nvidia GeForce RTX 2080 Ti, 2080 & 2070 (Seite 2). Computerbase, 14. September 2018, abgerufen am 4. Juli 2019.
  3. NVIDIA GeForce RTX 2060. Nvidia Corporation, 7. Januar 2019, abgerufen am 7. Januar 2019.
  4. a b c d e f g h i j k l m n o p Stromverbrauchs-Überblick für DirectX 11/12 Grafikkarten – nVidia GeForce 16/20 Serie (Turing). 3dcenter.org, 4. Juli 2021, abgerufen am 17. Mai 2022.
  5. NVIDIA GeForce RTX 2060 Super. Nvidia Corporation, 2. Juli 2019, abgerufen am 3. Juli 2019.
  6. NVIDIA GeForce RTX 2070. Nvidia Corporation, 20. August 2018, abgerufen am 28. September 2018.
  7. NVIDIA GeForce RTX 2070 Super. Nvidia Corporation, 2. Juli 2019, abgerufen am 3. Juli 2019.
  8. NVIDIA GeForce RTX 2080. Nvidia Corporation, 20. August 2018, abgerufen am 28. September 2018.
  9. NVIDIA GeForce RTX 2080 Super. Nvidia Corporation, 2. Juli 2019, abgerufen am 3. Juli 2019.
  10. NVIDIA GeForce RTX 2080 Ti. Nvidia Corporation, 20. August 2018, abgerufen am 28. September 2018.
  11. NVIDIA TITAN RTX jetzt verfügbar. Abgerufen am 29. Mai 2020 (deutsch).