Diskussion:Nvidia-GeForce-400-Serie
Füge neue Diskussionsthemen unten an:
Klicke auf , um ein neues Diskussionsthema zu beginnen.Geschichte der Karte
[Quelltext bearbeiten]Sollte man nicht erwähnen, das nVidia mit diesen Karten ne yield rate von unter 20% hat?[1]. Das Silicon/Karte alleine kostet so schon $250, ..
Was eigenens verschulden ist, wenn schon lange bekannt war, dass der 40nm Prozess von TSMC nicht der beste ist[2]? Ich mein, mit ner Chipfläche von >500m^2 und der Leistungsaufnahme 250W (300 ist max bei PCIe, sonst wirds nicht mehr spezifiziert), sind sie an jeder erdenklichen Grenze angekommen was Chipdesign angeht, was auch dafür spricht, dass das ganze Design total der Flopp ist?
Was auch daran zu sehen ist, das sie nur 8.000 Karten[3] zum Initialstart hatten (kein wunder bei 500m^2 Die (von versprochenen 40.000), und Reseller ältere Karten mitkaufen müssen, damit sie eine GTX470/GTX480 bekommen[4][5]? -- xentric 09:12, 14. Apr. 2010 (CEST)
- Gibt es für eine dieser Aussagen auch mal eine offizielle Quelle? -- DeffiSK 13:28, 14. Apr. 2010 (CEST)
- Und wie soll die Aussehen? Soll nvidia sagen, wir haben alles verkackt?
- Natürlich verneinen die alles, ..
- Senior manager from Nvidia has told Fudzilla that “Our (Nvidia’s) 40nm yields are fine. The rumors you are hearing are baseless.”[6]
- Guck halt selbst. Die Karte frisst über 200W, die Chipdie ist >500m^2, sie läuft nichtmal nach Spezifikation und nirgendwo ist ne Karte vorhanden, auch nicht bei großen Retailkunden wie Alternate ..
- ich meine, AMD hat große Probleme gehabt welche zuliefern, und nichtmal die konnten die Nachfrage decken, und deren Die ist halb so groß, bei dem gleichen problematischen TSMC Prozess, .. und die haben kein komplette neues Chipdesign, mussten kein Komplettes Dircet11 in die Karte bauen, usw.
- Ist halt einfaches 1+1.
- Was auch immer. Von mir aus kann das bei dem "alles ist gut und wunderbar"-Artikel bleiben. Ich hab kein Desktop, keine dedizierte Grafikkarte, und auch keine von amd oder nvidia. -- xentric 19:25, 14. Apr. 2010 (CEST)
- Oh noez, ATI Fanboys flaming! Ich habe mir eine bestellt, und ja, es gibt Wartezeiten. Jedoch hat nvidia ihre neue Architektur lange angekündigt und gehyped, von da her ist es logisch dass es genug Vorbestellungen gab. Die Argumente über Stromverbrauch und Wärmeabgabe sind meiner Meinung nach ATI-Fanboy-Mist, klar frisst sie viel Strom, klar erzeugt sie Wärme, aber es ist eine High-End Gamergrafikkarte und keine Home&Office Lösung. Die ATI-Fanboys die bei jedem neuen nvidia-Release alles zuflamen sind eher nervig, zumal das 196.75 driver issue z.B. eher harmlos gegenüber der ganzen verkackten Chipserie der HD5770 war. Qualitätskontrolle ist wohl bei den Kindern in den ATI-Fabriken ein Fremdwort, die Chips landeten nämlich auf dem Markt und wurden verkauft, ich habe selbst eine der Problemkarten hier. So, und nun Ruhe jetzt, Wikipedia soll informieren und nich Leuten eine Meinung bilden. --84.74.174.177 (14:43, 22. Mai 2010 (CEST), Datum/Uhrzeit nachträglich eingefügt, siehe Hilfe:Signatur)
Fehler in der Tabelle?
[Quelltext bearbeiten]Hallo
Kann es sein, dass sich bei der Tabelle mit den Theoretischen GFLOPS-Werten ein Fehler eingeschlichen hat? Müsste die GTX 465 nicht mehr GFLOPS machen als die 460? Sie hat ja mehr CUDA-Cores usw. Ich denke, das sollten 955 GFLOPS statt 855 sein.
Wenn ich mich irren sollte... wäre zwar seltsam aber okay. --91.35.224.9 00:26, 13. Jul. 2010 (CEST)
Die 460 hat höheren Shadertakt als die 465. Jeder Cuda-Core kann max. 2 Berechnungen pro Takt ausführen. Core-Anzahl * 2* Taktrate= FLOPS --Juri S. 08:31, 13. Jul. 2010 (CEST)
Die DIE-Größe des GF100 ist ermittelt worden, bitte Änderungen übernehmen!
[Quelltext bearbeiten]Achtung: Bitte den neuen Wert der DIE-Größe des GF100 Chips übernehmen. Die PCGH hat den Die freigelegt und die richtige Größe ermittelt (549,9 mm2). Zu finden unter:
Bitee diesen Link auch in den Verweisen am Ende zufügen. Ich habe hier leider nicht das nötige Wissen dies zu tun. (nicht signierter Beitrag von 79.242.154.111 (Diskussion) 14:52, 27. Sep. 2010 (CEST))
- Ok, mal eine kurze Erklärung. Ein großteil der derzeitigen Angaben zur Die-Größe habe ich in die Tabellen eingetragen, wobei ich in der Regel auf GPU-Z als Quelle zuzürckgegriffen habe. Wenn wir jetzt eine andere Quelle hinzuziehen, was ich auf keinen Fall pauschal ablehnen möchte, dann stellt sich für mich nur die Frage, wieso PCGH? Expreview gibt auch an, dass sie auch nachgemessen hätten und kommen auf die weit verbreiteten 529 mm², was sich eher mit 526 mm² von GPU-Z deckt. Wir müssen uns jetzt auf eine Quelle einigen und begründen warum diese, da es andernfalls einen potentiellen Editwar provozieren. (PS: Ich persönlich halte die 549,9 mm² von PCGH auch für am wahrscheinlichsten, aber frage mich, wie die anderen Werte zu stande gekommen sind.) mfg -- DeffiSK 19:21, 27. Sep. 2010 (CEST)
- Oo, können die alle nicht messen, oder wie kommt es zu solch großen Abweichungen? ~540 mm² wäre der gerundete Mittelwert der beiden Messwerte :) +/-10mm² wäre die Abweichung des Ergebnisses und über drei Millimeter wäre die Messabweichung beim Länge/Breite messen. Das ist eindeutig zu viel. --Juri S. 23:40, 27. Sep. 2010 (CEST)
- Also ich hab mal den entsprechenden Artikel bei Expreview herausgesucht: GeForce GTX470/480 Die Shots Exposed. Sie geben die Kantenlängen mit 23x23 mm an und kommen damit auf die 529 mm², die fast jede Seite im Netz einfach übernommen hat. Wenn ich den Artikel richtig verstehe haben sie alllerdings nicht an der Die direkt nachgemessen, sondern anhand eines geleaketen Fotos aus dem NGA-Forum die Daten ermittelt. PCGH gibt die Kantenlängem mit 23,4x23,5 mm an und kommt daher auf die 549,9 mm². In den Referenzartikeln, in welchem sie mit den Messungen bekonnen haben, ist zu erkennen, dass sie dieses mit einem Meßschieber tun. Damit würde man automatisch präzisere und in diesem Fall größere Werte erhalten. Warum PCGH allerdings im ersten Artikel andere Werte für den GT200 ermittelt, als im zweiten ist mir nicht so ganz klar: Der GF100 ohne Heatspreader: Nackte Tatsachen der Riesen-GPU. (PS: Sag mal Juri S., hast du keine Sichtungsrechte mehr oder wieso sind die Edits bei der Geforce 200 und Radeon 5000 ungesichtet?) mfg -- DeffiSK 10:50, 28. Sep. 2010 (CEST)
- Gut, dann wäre das ja geklärt. Expreview hatte ein Bild mit unscharfen Kanten optisch vermessen... Meßschieberwerte müssten genauer sein... (Ich hab nachwievor Sichtrechte, ich Sichte nur manches nicht, was noch nicht komplett geklärt ist) --Juri S. 09:21, 29. Sep. 2010 (CEST)
- Ok, dann würde ich vorschlagen, dass wir grundsätzlich die GPU-Z Werte immer solange verwenden, bis (nachvollziehbar) nachgemessen wurde. Ich rate dazu, die Werte von PCGH zu verlinken um potentielle falsche Bearbeitungen vorzubeugen. Sollen wir die Kommawerte von PCGH mitangeben oder geht es auch ohne? -- DeffiSK 12:20, 29. Sep. 2010 (CEST)
- Wo kommen eigentlich die GPU-Z-Werte her? Wenn das Herstellerangaben sind, könnte man die stets kleineren angegebenen Werte als gemessen damit erklären, dass der Hersteller wohl nur die Fläche angibt, auf der die Transistoren untergebracht sind. Gemessen wird hingegen der komplette Chip, der ja noch die Ränder ohne Transistoren enthält. Der Wafer wird ja dort zersägt, wo keine Transistoren sind. Die Ränder ohne Transistoren sind aber eigentlich uninteressant, von daher sind die Herstellerangaben wohl gar nicht so verkehrt. Von daher könnte man auch alles bei den Herstellerangaben belassen. Wenn man gemessene Werte nimmt, sollte man stets abrunden, da ja mit Rändern vermessen wurde. --Juri S. 14:10, 29. Sep. 2010 (CEST)
Also wenn Ihr die Werte der PCGH schon nehmt, was ich aufgrund der genauerenMessung gut finde, dann entweder mit Komma oder schlichtweg entsprechend runden. Also 549,9 ist ja in Ordnung, wenn ohne Komma dann wären 550 ja eher richtig. (nicht signierter Beitrag von 79.242.178.3 (Diskussion) 14:50, 29. Sep. 2010 (CEST))
- Ich muss gestehen, dass ich nie überprüft habe, woher GPU-Z seine Werte nimmt. Ich habe darauf nur zurückgegriffen, weil sie halt die meisten Angaben machen. ATI/AMD macht zumindestens teilweise Angaben zur Die-Größe: Die 334 mm² vom RV870 stammen direkt von AMD. Das PCGH hier dann 349 mm² misst würde sich dann mit der Theorie der mitgemessenen Rändern decken. Woher die Angaben zu Nvidias GPUs kommen, hab ich aber nicht rausbekommen. -- DeffiSK 12:17, 30. Sep. 2010 (CEST)
- So, was machen wir denn jetzt weiter? Nehmen wir die Daten mit oder ohne Ränder? mfg -- DeffiSK 14:50, 2. Okt. 2010 (CEST)
- Problem ist ja, dass wir nicht von allen GPUs gemessene Werte haben. Zwecks Vergleichbarkeit wäre es wohl daher imo sinnvoller überall die Herstellerangaben (vermutlich ohne Ränder) zu verwenden, so wie dies wohl bisher auch geschehen ist. Die letztendliche Entscheidung überlasse ich aber komplett euch :) --Juri S. 17:53, 2. Okt. 2010 (CEST)
Da hast du allerdings Recht. Da wir nur von 5-6 GPUs die gemessenen Werte kennen, rate ich dazu bei GPU-Z zu bleiben auch wenn noch nicht ganz klar ist, woher dort die Werte kommen. mfg -- DeffiSK 12:16, 3. Okt. 2010 (CEST)
Pixelfüllraten-Chaos
[Quelltext bearbeiten]Das die Ermittlung der Pixelfüllraten beim Fermi nicht so ganz einfach sind, ist ja inzwischen bekannt. Dennoch habe ich bei den aktuellen Werten, die in der Tabelle stehen, so meine Zweifel. Die Geforce GTX 460 (1024) und GTX 465 verfügen über die selbe Anzahl an ROPs. Bei der GTX 460 sind diese um 11 % höher getaktet, erreicht damit aber einen 41 % höheren Durchsatz als die GTX 465. Das kann doch nicht sein oder arbeiten die ROPs auf dem GF104 anders als beim GF100? mfg -- DeffiSK 12:52, 3. Okt. 2010 (CEST)
Fermi -> Kepler kommt erst 2012
[Quelltext bearbeiten]Da Fermi hierher verlinkt wird gibts halt hier das update: Nvidia bestätigt: Kepler kommt erst 2012, 05.08.2011 --Majx 22:47, 5. Aug. 2011 (CEST)
OpenGL Versionen... mit den neuen Treibern nicht mehr 4.1, sondern 4.2
[Quelltext bearbeiten]Sollte die OpenGL Version nicht geändert werden?
Die Karten waren zwar beim Release auf OpenGL 4.1, aber mit den derzeigten Treibern sind die GF 400 Karten OpenGL 4.2 kompatibel.
-- 87.180.192.105 01:53, 7. Dez. 2011 (CET)
jep, im Einführungstext ist von einer andern OpenGL Version die Rede als in der Tabelle. Vll kurze Erläuterung einfügen (so wie es jetzt ist ist es irreführend) (nicht signierter Beitrag von 82.113.99.106 (Diskussion) 14:16, 22. Jan. 2013 (CET))
VRAM der GTS450
[Quelltext bearbeiten]Gab bzw. gibt es nicht eine weitere Version der GTS450 mit 2GB VRAM?
Ich hatte die zumindest von Palit und von Point of View gesehen...die von Palit hatte ich mit GDDR5 und die von POV mit GDDR3 gesehen. Kann natürlich sein, dass ich mich irre. Aber...
Ach und müsste nicht auch in der Tabelle GDDR3 RAM angegeben sein und nicht nur DDR3? --2A01:C22:BCB3:1500:2CBF:89EA:6B5:F6C4 11:59, 29. Jan. 2023 (CET)