Diskussion:Nvidia-GeForce-200-Serie
Hybrid SLI und Geforce Boost
[Quelltext bearbeiten]Hallo
Ich würde mich sehr freuen wenn jemand Genaue INformationen bezüglich Hybrid SLI und Geforce Boost Auf die Enstprechenden Grafikkarten Seiten Stellen würde. Ich würde es ja gerne selber machen, habe aber leider schon zu oft Kritik geerntet hier auf Wikiepdia wenegen meiner Legastenie und meiner (journalistischen Art) Texte zu schreiben.
http://www.nvidia.de/page/hybrid_sli_desktop.html
Viel Informationen konnte ich ja sowieso nicht zusammen Tragen da sich auch auf vielen Seiten nur Halbwarheiten oder der gleichen tummeln. Auf der Nvidia HP gibt es leider nicheinmal mehr einen direkten link zu der von mir gepostetetn seite. Als ob sie es still und heimlich sterben lassen wollen. Ich wage nächste woche den Selbstversuch mit einer Onboard 9400 und einer GTX 260 mit der es angeblich funktionieren soll. Ausprobieren deswegen weil cih niergens wo informationen zur genauen Funktion finden konnte. Nur die INformation dass die Grafikkaret einen SMBus benötigt.
Ich habe auch vor Diesen Text auf allen (mir bekannten und) relevanten Diskusionsseiten zu Posten und ein bischen mehr verbreitung zu finden.
Grüße aus Graz 84.119.75.170 10:42, 5. Apr. 2010 (CEST)
- Versuch es das nächste mal einfach mit der Suche von Wikipdia. Die Informationen zu Hybrid-SLI und GeForce-Boost wurden bereits in wiki niedergeschrieben: siehe: Hybrid-SLI
- Noch was persönliches: Ich würde dir gerne den Tip geben, dass viele Browser eine Rechtschreibkorrekturfunktion haben. Für Firefox gibt es zum Beispiel ein entsprechendes Add-Onn, dass die Rechtschreibung während es Tippens Überprüfung und Vorschläge zur Korrektur macht. https://addons.mozilla.org/de/firefox/search?q=rechtschreibung&cat=all
- https://addons.mozilla.org/de/firefox/addon/3077
- --Juri S. 13:10, 5. Apr. 2010 (CEST)
- Hallo und gleich vorab danke für den Tipp mit der Rechtschreibprüfung, da hätte ich auch selber drauf kommen können. Leider benutze ich den Firefox erst seit einigen Wochen, und habe daran noch nicht gedacht (jaja, alter IE nutzer...). Ich hoffe meine Texte sind nun etwas erträglicher zu lesen.;)
- ZU dem Wikipedia Artikel: Meiner Meinung nach wird viel zu wenig auf die Möglichkeiten der Technik eingegangen, bzw. Der Grund wieso nVidia die Technik sterben lies und sich neuen Methoden zuwendet (Rückzug aus dem Chipsatz Geschäft, nVidia Optimus, etc.) Auch die Funktion und die dadurch resultierenden Einsparungen die in der heutigen zeit vielleicht doch eine kleinere Beachtung finden sollten, werden unzureichend bis gar nicht erwähnt. Wie viele Menschen mit leistungsstarken Grafikkarten schalten ihren Rechner wohl ein und lassen ihre Grafikkarte auf Last bis zum ausschalten durchgehend arbeiten? Ich kann die Frage natürlich selber nicht beantworten aber wohl kann ich zumindest aus Privatem Umfeld und Firmen Alltag sagen dass nicht den Ganzen Tag 100% Grafiklast gefragt sind, und sicher ein nicht zu unterschätzendes Sparpotential Vorliegt.
- Gruß aus Graz -- 84.119.75.170 12:23, 6. Apr. 2010 (CEST)
G200=GT200
[Quelltext bearbeiten]Auf dem Package steht eindeutig G200 und nicht GT200. http://www.computerbase.de/bild/article/825/3/
- Auf engineering samples steht viel drauf wenn der Tag lang ist. In den Treibern ist die Signatur eindeutig GT200.
NVIDIA_GT200.DEV_05E1.1 = "NVIDIA GeForce GTX 280" NVIDIA_GT200.DEV_05E2.1 = "NVIDIA GeForce GTX 260"
-> 177.41 Treiber
Andere, verwandte, Beispiele aus dem 175.19 Treiber:
NVIDIA_G72.DEV_01D3.1 = "NVIDIA GeForce 7300 SE/7200 GS" NVIDIA_G80.DEV_0194.1 = "NVIDIA GeForce 8800 Ultra" NVIDIA_G92.DEV_0600.1 = "NVIDIA GeForce 8800 GTS 512"
usw, etc. --Denniss 03:26, 7. Jul. 2008 (CEST)
Auf dem Retailchip steht das gleiche wie auf dem engineering sample. http://www.cpu3d.com/index2.php?option=com_mgm&task=viewimage&pop=1&gl=605&image=DSC09560.jpg
http://www.cpu3d.com/index.php?option=com_content&task=view&id=5178&Itemid=53&limit=1
Arbeitsspeicher in Megabyte oder Mebibyte?
[Quelltext bearbeiten]Ich bin mir nicht sicher, deswegen frag ich lieber erstmal nach... In der Spalte mit dem Arbeitsspeicher steht "MB" als Titel, meine Recherchen haben ergeben, dass RAM üblicherweise in Binäreinheiten (Mebibyte#IEC-Binärpräfixe) angegeben wird. Auch die Werte in den Spalten sind ja immer typische Zweierpotenzen, Meinungen? --Netspider 19:34, 30. Jan. 2009 (CET)
- Da gab es vor einiger Zeit was. Es gibt aber auch Leute, die mit dieser Lösung nicht glücklich sind. --Uncle Pain 15:15, 31. Jan. 2009 (CET)
- was soll man machen, wer nicht wirklich die exakten Werte bracht, den wird es nicht stören. Aber ok, so wurde entschieden und gut. --Netspider 16:32, 31. Jan. 2009 (CET)
- Ich dachte, aktueller Stand ist, dass man in einer Fußnote angibt, was denn nun gemeint ist. --GlaMax 16:41, 11. Aug. 2009 (CEST)
Geforce GT 230
[Quelltext bearbeiten]Wo und wie soll man eigentlich die neuen Grafikkarten, wie die im Aldi-Rechner verbaute GT 230 einordnen? --ALE! ¿…? 15:06, 15. Jun. 2009 (CEST)
- Da die genauen technischen Daten dafür noch nicht bekannt sind, kann man das noch nicht sagen. Aus einen der letzten Beta-Treibern wissen wir, dass die Geforce GT 230 auf einer GT216-GPU basiert. Mehr wissen wir defacto nicht. mfg --DeffiSK 14:04, 16. Jun. 2009 (CEST)
- Bei sovielen verkauften Aldi-Rechnern müßte doch jetzt mal was bekannt sein, oder? --ALE! ¿…? 14:42, 7. Aug. 2009 (CEST)
- Ja, es müsste sich dabei um eine Geforce GT 130 handeln, welche wiederum ein OEM-Ableger der Geforce 9600 GSO 512 ist. Warum Aldi diese als GT 230 vermarktet ist unklar. Sie hat aber nichts mit der Geforce GT 230 zu tun, welche auf Basis der 40-nm-GPU GT216 oder GT215 erwartet wird. --DeffiSK 21:25, 7. Aug. 2009 (CEST)
- Hmm, die Treiber-Website von Nvidia erkennt aber meine Karte als eine GT 230. Kann es nicht sein, dass Medion ein frühes Modell bekommen hat. --ALE! ¿…? 11:14, 7. Sep. 2009 (CEST)
- Nein, mit Sicherheit nicht. Du kannst mal die technischen Daten deiner Karte mit GPU-Z auslesen lassen. --DeffiSK 12:57, 7. Sep. 2009 (CEST)
- Ich habe mal die Daten mit GPU-Z ausgelesen. Das Programm erkennt die Karte als eine GT 230. Ich habe die Daten in die Tabelle eingetragen. --ALE! ¿…? 23:50, 7. Sep. 2009 (CEST)
- Was gibt denn GPU-Z bei GPU und Shaders an?--DeffiSK 09:59, 8. Sep. 2009 (CEST)
- Da ich jetzt nicht zu Hause bin muss ich mich auf mein Gedächtnis verlassen und sage es war 0621. Kann das sein? Shader: Weiß ich nicht mehr. --ALE! ¿…? 10:06, 8. Sep. 2009 (CEST)
- Das klingt nach der Device ID. --DeffiSK 09:21, 10. Sep. 2009 (CEST)
GT 200 er Reihe wird aus dem Verkauf genommen.
[Quelltext bearbeiten]Habe eine Disskusion auf der nVIDIA seite gestartet. Hab nicht daran gedacht diese hier zu Starten. Wer will guckt bitte in die Disskusion der nvidia Seite. In Kuerze die GT 200er Reihe soll langsam aus dem Verkauf genommen werden. Dies soll der Anfang vom Ende von den Hig-end-grafikkarten von nvidia fuer den Otto-Normalverbraucher. (nicht signierter Beitrag von 85.172.104.6 (Diskussion | Beiträge) 21:29, 7. Okt. 2009 (CEST))
- Ziemlich viele Konjunktiv in diesen Halbsätzen. Diese Meldung stammte übrigens von der Webseite Semiaccurate[1], dessen Seriösität man als unterirdisch bezeichnen kann. Gerade der Autor, Charlie Demerjian, hat sich in der Vergangenheit als echter Nvidia-Feind erwiesen und eine regelrechte Flut an Falschmeldungen produziert. Übrigens wurde die Behauptung von Nvidia inzwischen dementiert[2]. Ich rate dringend dazu, etwas kritischer mit solchen vermeindlichen Meldungen umzugehen und auf die Quellenangaben zu achten. Semiaccurate hatte für seine Behauptung nämlich defacto gar keine Quelle angegeben. mfg --DeffiSK 13:53, 8. Okt. 2009 (CEST)
GT218-GPU
[Quelltext bearbeiten]Nachdem durch die DX10.1-Unterstützung klar ist, dass die Geforce 205 auf dem GT218 beruht, frage ich mich, ob die Angaben jetzt noch ganz korrekt sind. Die Geforce 205 verfügt über 8 Streamprozessoren (neuerdings auch als CUDA-Cores bezeichnet). Da nach den bisherigen Angaben der GT218 aber aus einem Shadercluster mit 16 SPs besteht, frage ich mich, wie Nvidia diesen halbieren will. Von daher vermute ich, dass der GT218 eher aus zwei Shaderclustern besteht und diese jeweils über 8 SPs und 4 TMUs/TAUs verfügen. Oder habe ich jetzt irgendwo einen Denkfehler? -- DeffiSK 10:52, 30. Nov. 2009 (CET)
- GeForce 8400m G gab es auch schon mit 8 SPs, obwohl der G86 über ein Shaderclusster mit 16SPs verfügt. Offenbar kann nVidia den einen 8-er Shaderblock im Shadercluster deaktivieren. --Juri S. 11:24, 30. Nov. 2009 (CET)
Werden dabei auch die Textureinheiten deaktiviert? -- DeffiSK 11:59, 30. Nov. 2009 (CET)
- Bei der 8400m G, nein! Bei der G205 gibt nvidia leider die Füllrate nicht an, weswegen man nicht auf die Anzahl der TMUs schließen kann. --Juri S. 12:06, 30. Nov. 2009 (CET)
Grafikkarte statt Grafikchip
[Quelltext bearbeiten]Ist hier nicht eher die Grafikkartenserie als denn die in den Karten der Serie verbauten Grafikchips gemeint? Als Abbildungen wurden bspw. Grafikkarten verwendet. Zwei heißen die GPU-Modelle ähnlich, aber es könnte zu Konfusionen führen. --PantheraLeo1359531 😺 11:05, 8. Aug. 2024 (CEST)