Diskussion:Video Graphics Array

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 5 Monaten von 84.158.120.82 in Abschnitt VGA ist kein Standard, Quasi-Standard wäre korrekt
Zur Navigation springen Zur Suche springen

Fehlerhinweise

[Quelltext bearbeiten]

Hi, bin nicht gut im Schreiben, aber möchte dennoch etwas beitragen. Betrifft "Der Fortschritt des VGA-Anschlusses war die analoge Übertragung des Signals zum Monitor. Damit überwand man das Manko des CGA-Anschlusses bzw. EGA-Anschlusses, die prinzipiell nur 16 bzw. 64 Farben (bei SW: 3 bzw. 4 Graustufen) übertragen konnten.".

Auch CGA war analog, genau dasselbe Übertragungsprinzip, nur mit anderen Timings. Die Anzahl an Farben war nicht durch die Übertragung begrenzt sondern durch die Hardware der Grafikkarte. Sieht man auch am Demo 8800 mph. Ist also kein Fortschritt. Und bei EGA vergleicht man Äpfel mit Birnen. EGA war digitale Übertragung. Damit knackig, aber farblich begrenzt was die ->Übertragung<- des Signals angeht. Bei VGA isses umgekehrt.



Verschlimmbesserung meiner (IP) Änderungen

[Quelltext bearbeiten]

ich hatte mal den folgenden Absatz hinzugefügt: Der VGA-Anschluss war auf eine einfache und brauchbare Signalübertragung zu einem analogen Röhrenmonitor ausgelegt. Die Panels moderner Flachbildschirme werden allerdings nativ durch digitale Signale angesteuert. Bei einem Anschluss an die analoge VGA-Anschluss werden somit die digital vorhandenen Bilddaten für den VGA-Port in Analogsignale gewandelt und später im Flachbildschirm wieder digitalisiert. Zur Umgehung dieser doppelten Wandlung wurden mittlerweile Grafikschnittstellen entwickelt, welche die digitalen Bilddaten des Grafikprozessors direkt an Flachbildschirme übertragen, wie DVI-D, HDMI oder DisplayPort. Mit dem Siegeszug der Flachbildschirme ist der VGA-Anschluss immer seltener anzutreffen. Bei vielen Grafikkartenherstellern sank in den letzten Jahren damit auch die Bau- und damit auch die auf Röhrenmonitoren erreichbare Bildqualität des VGA-Anschlusses bei aktuellen Grafikkarten. In einigen Bereichen ist er aber auch heute noch verbreitet, beispielsweise bei fest installierten Projektoren in zahlreichen Konferenz- und Vortragsräumen. Mit den digitalen Grafikschnittstellen ändert sich jedoch nur der Anschluss für Bildausgabegeräte, intern beziehungsweise aus Softwaresicht sind die meisten Grafikkarten auch heute noch weitgehend VGA-kompatibel.

Ich gebe zu, etwas lang und ausführlich.

Dieser Absatz wurde am 4.8. duch 87.171.3.200 mit dem Verweis auf "Prosa" geändert in: Erst ein Jahrzehnt später hat sich die analoge Übertragung als Manko herausgestellt. Für TFT-Displays mit einzeln ansteuerbaren Pixeln führt sie bei hohen Auflösungen (spätestens bei 1600x1200 Pixeln) zu Unschärfe und Unruhe (Moiré) im Bild. Die Nachfolger heißen DVI-D, HDMI und DisplayPort.

Der neue Absatz ist m.e. aus folgenden Gründen problematisch:

  • Das Problem ist darin, dass TFTs digitale Signale erwarten und bei einer VGA-Ansteuerung doppelt gewandelt werden (also Grafikchip(digital)->VGA-Ausgang(analog)->im TFT(wieder auf digital). Das Anschlussverfahren ist somit für das "neue" Ausgabegerät TFT suboptimal.
  • "TFT mit einzeln anteuerbaren Pixeln"-> häh? Auf jedem grafikfähigen Monitor lassen sich die Pixel natürlich einzeln ansteuern, das gilt sowohl für einen CGA-Monitor, ein VGA-Monitor oder ein TFT.
  • Hohe Auflösungen müssen nicht zwangsläufig zu Unschärfe führen, es hängt davon ab, wie gut der VGA-Ausgang gebaut ist und wie der Signalweg zum Monitor ausgestaltet ist. Früher waren so die Matrox-Karten berühmt für ihre scharfe VGA-Qualität auch bei höchsten Auflösungen. Bildmatsch kommt bei theoretisch optimalen Komponenten auch bei analog nicht vor. Allerdings wird heute am VGA-Ausgang zunehmend gespart (da er auch immer weniger genutzt wird) und auch die Signalkabel zu den Monitoren werden immer preiswerter, so dass es in der Praxis zu Unschärfe kommt. Das liegt nicht am Verfahren an sich, sondern an der Implementation.
  • Aus dem Absatz geht nicht hervor, dass DVI-D, HDMI und Displayport digitale Schnittstellen sind und sich somit prinzipbedingt für TFTs besser eignen (bzw. wurden sie ja dafür gemacht).

War mein Entwurf vorher vielleicht zu prosahaft, ist die neue Variante teilweise verwirrend oder falsch. D.h. es müsste eine weitere Überarbeitung her. Allerdings ist es natürlich schwierig. Für VGA, DVI und HDMI gibt es ja seperate Artikel. Andererseits kamen die VGA-Karten seinerzeit natürlich mit dem VGA-Anschluss auf den Markt. VGA-Karte und -Anschluss waren bis vor 8-10 Jahren gewissermaßen fest miteinander "verheiratet", eine Einheit... Und der VGA-Anschluss hatte auch seinen Anteil am Erfolg der VGA-Karte. (nicht signierter Beitrag von 217.83.112.81 (Diskussion) 16:43, 16. Aug. 2011 (CEST)) Beantworten

Holla, die Waldfee....
Punkt 1: DVI und HDMI sind Anschlussarten und haben mit VGA erst einmal so nichts zu tun.
Punkt 2: Gespart wird weder an den VGA-Ausängen noch an den Signalpegeln - diese sind genormt. Gespart wird unter dem Schreibtisch am VGA-Kabel, gerne nimmt man das billig, das dem Monitor oder dem Rechner beiliegt. Ein gutes VGA-Kabel kostet rund 20€ für die beidem Stecker plus rund 10€ für den laufenden Kabelmeter dazwischen. Und wer bereit ist über 100 Öcken in ein hochwertiges VGA-Kabel zu investieren, der wird merken, dass Full-HD auch per VGA wunderbar über 10m vom Rechner an den Beamer oder einem Monitor geschickt werden können ohne Schlieren und Farbfehler und von HDMI nicht unterscheidbar.
Punkt 3: DA -> AD Wandlung bei TFT über VGA - kein Problem bei hochwertiger Verbindung. DVI und HDMI sind zwar digital, aber viele verwechseln digital mit verlustfrei. HDMI, DVI und Displaport bauen aufeinander auf und sind fehlertolerante Übertragungsverfahren. Auch bei HDMI spielt die Kabelqualität eine Rolle - glauben viele nicht, bis man es ihnen zeigt, dass die mittelmässige Bildqualität des Heimkinos nicht am Beamer liegt, sondern seine Ursache auf dem Weg dorthin hat. Vor allem bei Fernsehern werkelt im Hintergrund eine aufwändige Korrekturlogik, die nicht nur das aktuelle Bildsignal, sondern auch die Bildsignale der Frames davor beachtet. Das kostet etwas Zeit, weshalb gute Fernseher/Monitore mehrere Betriebsmodi anbieten. Maximale Korrektur bei Kinofilmen - in die Berechnung werden die letzen 6 Frames mit einbezogen. Im Sportmodus mit schnellen Bewegungen werden nur die letzten drei Bilder beachtet, weil das Bild -6 schon zu weit abweicht und bereits 1/10tel Sekunde alt ist. In beiden Fällen wird das Bild n erst nach Eingang von Bild n+6 bzw n+3 angzeigt wird. Für Spielekonsolen, die eine schnelle Reaktion erfordern, kann dies zu lange sein, weshalb man im Gamemodus die Korrektur auf einen Interpolationsmodus zurückschalten kann, die Bilder werden jedoch ohne Verzug angezeigt. Dann merkt man, ob das Kabel was taugt oder nicht. Wenn als das Bild der xbox schite aussieht und es zu Fehlern kommt, dann liegt das weder an Microsoft (oder Sony für die andere Religion) bzw. dem Fernsehhersteller, sondern eventuell am Kabel. 79.212.148.209 21:11, 13. Okt. 2016 (CEST)Beantworten
Also dass heutige Flachbildschirme bis zu 6 Bilder zwischenspeichern und zur Kompensation von Übertragungsverlusten verwenden, dieses auch noch abschaltbar sein soll, dafür hätte ich gerne einen Beleg. Ich kenne es nur von LCD-Fernsehern, die die 2 Halbbilder bei Interlace-Videoformaten zu einem Vollbild zusammenfügen und dieses dann anzeigen. --RokerHRO (Diskussion) 21:59, 13. Okt. 2016 (CEST)Beantworten
Dann ruf bei den Herstellern z.B. Samsung an. Meine Belege kann ich dir gerne nennen, nur findest du die nicht im Internet. Leider ist es mir nicht gestattet diese Doku hier zu veröffentlichen. Zwischen den logischen Anzeigemodi und der Signalinterpretation gibt es noch eine Zwischenschicht. 79.212.139.187 23:57, 15. Okt. 2016 (CEST)Beantworten
Dass es im Gaming-Modus bei LCDs keinen Input-Lag gibt, stimmt nicht, das wurde in vielen Tests gezeigt. Der Input-Lag wird lediglich reduziert. Das wurde in vielen Tests, die sich leicht googeln lassen, gezeigt. Keinen messbaren Input-Lag (was in der Praxis heißt <1 ms) gibst lediglich bei CRTs (über den Input-Lag bei Plasmabildschirmen, OLED und diversen exotischen Technologien wie FED weiß ich nicht Bescheid), da LCDs egal wie man das Bild dorthin überträgt es immer in ein digitales Format umwandeln muss und selbst bei digitaler Übertragung muss das Signal immer noch umgewandelt werden (der genaue Grund dafür ist wie die Farbwechsel in den einzelnen Pixeln beim LCD funktionieren, das zu erklären würde aber den Rahmen dieses Diskussionsabschnittes sprengen). Außerdem aktualisieren LCDs üblicherweise das Bild ausschließlich im horizontal vertical blanking interval, wodurch bei 60 Hz schon mal ein Lag von bis zu 16,66 ms entsteht, im Mittel 8,33 ms. Der tatsächliche Input-Lag ist auch im Gaming-Modus oft über 20 ms, was bei schnellen Shootern schon ein entscheidender Nachteil gegenüber einem gleich guten Spieler ohne Input-Lag sein kann. Ohne Gaming-Modus ist der Input-Lag natürlich meist im total inakzeptablen Bereich. --MrBurns (Diskussion) 00:08, 15. Okt. 2016 (CEST)Beantworten
Welche Tests? Jetzt verlange ich mal nach Quellen. Wiedereinmal: Eine Spezifkation gelesen, aber nicht verstanden! Wiedereinmal vom CRT auf LCD geschlossen - ist ja schließlich alles gleich. Die Ansteuerung von LDC funktioniert vollständig ander als bei CRT. Kein mir bekannter LCD arbeitet Zeilenweise. Gibt es eine belastbare Quelle neben Google? Google ist keine Quelle! 79.212.139.187 23:57, 15. Okt. 2016 (CEST)Beantworten
"Welche Tests" - Mir ist nur eine zuverlässige Methode bekannt, den Input-Lag zu testen: man schließt an die selbe Grafikkarte den zu testenden LCD und einen CRT als Referenz an. Der CRT hat prinzipiell keinen messbaren Input-Lag. Danach starte man eine Stoppuhr und macht ein Foto oder nimmt ein Video auf (das sind dann ja nur mehrere Fotos, die man auch einzeln anschauen kann). Derartige Test findet man leicht hunderte mit google oder youtube indem man nach crt lcd input lag sucht. Das ist nur das erstbesten passenden youtube-Resultate: [1][2]. Man sieht da, dass es große Unterschiede gibt, beim ersten Beispiel sinds ca. 3-4 Frames (also so Größenordnung 50-60 ms), beim zweiten ca. 10 ms, also nahe am theoretischen Minimum.
"Wiedereinmal: Eine Spezifikation gelesen, aber nicht verstanden! [...] Kein mir bekannter LCD arbeitet Zeilenweise." - Stimmt nicht ganz, ich meinte natürlich das vertical blanking interval, hab nur vertikal mit horizontal verwechselt. Mir ist durchaus schon lange bekannt, dass LCDs üblicherweise das ganze Bild auf einmal aktualisieren. Das geht auch aus meinem vorherigen Kommentar hervor, wie wäre ich sonst auf "bei 60 Hz", "bis zu 16,66 ms" bzw. "im Mittel 8,33 ms" gekommen? Der zeitliche Abstand zwischen den einzelnen Zeilen ist ja nur im µs-Bereich... --MrBurns (Diskussion) 21:43, 17. Okt. 2016 (CEST)Beantworten

384*564 mit 820 Farben?

[Quelltext bearbeiten]

Ich konnte es zwar noch nicht unter echtem DOS ausprobieren aber von dieser Demo [3] wird behauptet dass sie 385*564 Pixel bei 820 Farben auf allen VGA karten hinbekommt. Also ist es scheinbar irgendwie möglich die im Englischen Wikipedia Artikel aufgeführten Beschrenkungen zu Umgehen. Daher schlage ich vor das wenn man die übernimmt, man vielleicht anmerken sollte das auch andere Nodi durch den richtigen Zugriff möglich sind.

Nunja, der Trick ist, dass die 820 Farben ja nicht *gleichzeitig* dargestellt werden. Bei deiner angegebenen Demo wird einfach während des Bildaufbaus die Palette geändert, sodass der Eindruck entsteht, man hätte es mit beliebig vielen Farben zu tun. Technisch sind aber trotzdem nicht mehr als 256 Farben pro Zeile möglich. Man sieht auf dem Screenshot auch sehr schön, dass das Bild vertikal in mehrere Bereiche unterteilt ist. Dies wurde auch gern in Spielen praktiziert soweit es sich anbot, was aber in Emulatoren wie DOSBox durchaus Probleme bereiten kann, weil sie die Palette nur über das ganze Bild ändern können und nicht zeilenweise. --87.170.88.114 12:50, 19. Dez. 2008 (CET)Beantworten
Nein, es geht nicht auf allen Karten. Es geht nur auf Karten, die über ein Dual-Port VRAM verfügen und die damit ein Ändern der DAC-Table während des Seitenaufbaus erlauben. Es geht auch noch bei ganz alten Karten, die ein Beschreiben überhaupt nicht kontrollierten und anfällig für "VGA-Snow" waren. Mit einer "normalen" VGA mit einfachem RAM im Bereich der DAC-Register geht es nicht. Der Trick ist - wie schon über mir geschrieben, die DAC-Register während des Bildaufbaus zu ändern. 84.170.87.67 23:13, 12. Jun. 2010 (CEST)Beantworten
Es geht und ging auf allen Karten - auch under DOSBox geht es - zumindest in der Version 0.74. Mit VRAM hatte das auch nichts zu tun - eher mit einer sauberen Programmierung. Das Ganze hat mit VRAM nichts zu tun, weil die Farbregister nicht im Grafik-RAM liegen. Der Trick lag im korrekten Abpassen der RZI und der Tatsache, dass die Zeit vor allem auf langsameren Systemen nicht ausreichte, alle 256 Einträge zu tauschen. 79.212.186.230 02:29, 26. Dez. 2012 (CET)Beantworten
Klasse, erklär doch mal einem altgedienten Democoder wie man bei VGA an den Raster-IRQ herankommt? Im Gegensatz zu einem Homecomputer ist die Graphiklösung auf der PC Architektur ein eigenständiges Subsystem, das dem Host nur das mitteilt, was es für richtig hält - und das ist bei einer gut gelaunten VGA mal bestenfalls der Vertical Reftrace. Einen RasterIRQ gibt es bei VGA nicht. Die Magie steckt im Input Status Register der VGA, bei dem (oh Mann ist das lange her) Bit 0 meine ich in der Zeit der vertical Retraces auf 0 springt. Im Gegensatz zu einem Homecomputer hat der PC zwei sehr präzise Timer und einen solchen zieht man auf mit der Formel "gewünschte Rasterzeile-1 mal 30µs (glaube ich waren es)" und zündet das Teil. Bei diesem Mist dann auch noch den Sound ruckfrei zu halten, sind schon höhere Weihen und außer Copper geht dann nicht mehr viel - deshalb hat man auf diesen Mist mit den "Copper-Balken" beim PC auch gerne verzichtet, das machte man lieber auf dem Amiga, bei dem das mit dem Copper-Listen recht einfach ging. Ach ja, und den Schnee gab es bei CGA und dort auch nur bei der Original IBM - VGA hatte das Problem nicht mehr. 79.212.148.209 20:45, 13. Okt. 2016 (CEST)Beantworten
Es gibt bei VGA keinen Rasterinterrupt, wohl aber kommt man über Port 3dAh sowohl an einen horizontal retrace HRT (bit 0 = 1) als auch an einen vertical retrace VRT (bit 0 und Bit 3 = 1). Indem ich bei einem VRT einen Zähler aufziehe und mit jedem HRT hochzähle (und bei jedem VRT nulle), kann ich mir einen eigenen Rasterzähler bauen. Das Ganze funktioniert erst ab einem 386er oder höher, weil der schnell genug ist um keinen HRT zu versäumen. Durch das Aufziehen eines Timers - wie du schon korrekt erwähntest - kann man dabei ganze Blöcke überspringen. Dies ging, weil VGA ein extrem exaktes Timing hatte. Das Ganze funktioniert auch unter DOSBox wunderbar. Würde das nicht gehen, würden viele Spiele nicht laufen. Die 385*564 werden durch die Umprgrammoierung des Display Controllers erreicht. VGA ist relativ flexibel, die 640*480 z.B. sind nur ein "Vorschlag". Grundsätlich ist jede Auflösungskombination möglich, bei der Breite * Höhe * Wiederholrate mit der Zeilenfrequenz in Einklang zu bringen sind. 2003:CB:A718:E601:C815:B12:7B6C:BE1D 19:27, 17. Okt. 2019 (CEST)Beantworten

MCGA

[Quelltext bearbeiten]

wird hier als "Multicolor Graphics Array" bezeichnet. Ich habe es aber irgendwie als "Monochrome Color Graphics Array" in Erinnerung, irre ich mich? --KGF 02:38, 17. Mai 2006 (CEST)Beantworten

Vermutlich meintest du den MDA = Monochrome Display Adapter beim "Uralt-PC", kann das sein?80.133.238.253 13:19, 13. Sep 2006 (CEST)

MCGA war AFAIK eine auf 64 KB Videospeicher verkrüppelte "onboard"-Variante von VGA. Damit war 640×480 nur noch mit 2 Farben möglich, aber der für Spiele beliebte 320×200 Modus mit 256 Farben war weiterhin möglich, sofern das Spiel sich nicht auf die 256 KB Videospeicher der Original-VGA verließ, um Double Buffering oder Sprites zu verwenden. --RokerHRO 18:14, 14. Apr. 2009 (CEST)Beantworten
Das ist falsch. MCGA ist eine Erweiterung des CGA Standards und hat mit VGA gar nichts zu tun. VGA kann den MCGA Modus lediglich emulieren, sowie auch die anderen Modi von CGA und EGA. MCGA war also nicht "verkrüppelt", es war zuerst da und das erklärt auch die kleine RAM Größe von 64 KiB. Die waren damals nämlich noch teuer. Als VGA rauskam, war RAM schon etwas günstiger, weswegen man sich dort die vierfache Menge von 256 KiB gönnte. --84.158.120.82 03:44, 11. Jul. 2024 (CEST)Beantworten

Fehler im Artikel

[Quelltext bearbeiten]

Die Aussage "..., wodurch es z. B. auch möglich wird, eine VGA-Karte an einen Fernseher mit SCART-Buchse anzuschließen..." widerspricht dem weiter unten folgenden Satz: " * Die Horizontalfrequenz beträgt stets 31.5 kHz." und ist meiner Ansicht nach falsch. Es mag zwar möglcih sein, einen Fernseher anzuschliessen, jedoch kann dieser nur die Bildformate PAL B/G oder NTSC 'verstehen' und das Bild nicht anzeigen. Aufgrund der Interlace-Technik beider Formate ist die Horizontalfrequenz bei PAL 15625 kHz und bei NTSC 15750 kHz. Die Horizontal- oder Zeilenfrequenz errechnet sich aus Zeilenzahl mal Vollbildwiederholungsrate. Die Vollbildwiederholungsrate ist bei PAL i. d. R. 25 pro Sekunde und bei NTSC 30. Ausnahmen mögen die neuen Multisync/HDReady Geräte sein.

Meiner Meinung gehört das auch nicht an die Stelle, auch wenn es machbar ist, da es keine breite Anwendung gefunden hat. 217.81.209.199 02:30, 17. Sep. 2007 (CEST)Beantworten

VGA und Scart geht nicht. 79.212.186.230 02:30, 26. Dez. 2012 (CET)Beantworten

VGA Maschinencode

[Quelltext bearbeiten]

Wo ist der link zu ner genauen beschreibung wie man VGA ansteuert? Oder die Beschreibung selbst?

Google kennst du? --RokerHRO 11:59, 27. Dez. 2009 (CET)Beantworten
Ist Sarkasmus und keine Antwort der Frage! Vor allem, wenn man bedenkt, was Google alles an Müll zurückliefert. 79.212.186.230 02:31, 26. Dez. 2012 (CET)Beantworten
Jetzt sei mir bitte nicht böse, aber mit besagter Suchmaschine wird man schon sehr schnell fündig. Wenn du mit "ansteuern" eigentlich "programmieren" meinst, dann würde ich es auch der Suchmaschine so sagen. Bei "ansteuern" kommt in der Tat nicht viel brauchbares zurück. 2003:CB:A718:E601:C815:B12:7B6C:BE1D 18:56, 17. Okt. 2019 (CEST)Beantworten
Das gibt es nicht. VGA ist kein Standard, sondern nur ein quasi Standard den Dritthersteller versucht haben nachzubauen. VGA ist daher nur auf Video BIOS Routinen Ebene kompatibel. Nicht aber auf Registerebene. Wollte man die Register direkt programmieren, dann gilt das nur für Original IBM VGA Karten. Informationen dazu gibt es unter folgendem Link: http://wiki.osdev.org/VGA_Hardware#Sample_Register_Settings , das gilt aber wie schon gesagt nur für echte VGA Karten von IBM. Nicht für die Kompatiblen Nachbauer. Die funktionieren intern ganz anders. Der kompatible Zugriff erfolgt somit über das Video BIOS aus dem Real Mode, nur dieser Zugriff ist einheitlich. Sowie die VESA BIOS Extension für die späteren SVGA Modi. --84.158.120.82 03:41, 11. Jul. 2024 (CEST)Beantworten

WVGA

[Quelltext bearbeiten]

Neue Geräte werden auch mit Seitenverhältnis 16:10, also 800x480 ausgeliefert, sollte vielleicht noch erwähnt werden.

WVGA ist kein Bestandteil von VGA. VGA endet bei einer Auflösung von 640x480 Bildpunkten bei 16 Farben und hat nur ein Seitenverhältnis von 4:3. WVGA gehört in den SVGA Bereich. --84.158.120.82 03:37, 11. Jul. 2024 (CEST)Beantworten

Bilder

[Quelltext bearbeiten]

Da es im Artikel explizit um den Grafikstandard und nicht um den VGA-Anschluss geht, finde ich die Bilder hier fehl am Platz. Die Abgrenzung sollte auch im ersten Absatz deutlich gemacht werden.--87.162.11.40 17:44, 30. Nov. 2008 (CET)Beantworten

Stimmt. Man sollte Bilder von einer originalen IBM-VGA-Karte (oder den entsprechenden On-Board-Chips) machen und einbauen. Die Bilder vom VGA-Anschluss gehören in den anderen Artikel. Daher erstmal entfernt. --RokerHRO 12:03, 27. Dez. 2009 (CET)Beantworten

EISA, 1987 ???

[Quelltext bearbeiten]

Inwiefern ist VGA mit EISA verbunden? Die ersten VGAs waren doch 1.) von IBM und 2.) Onboard-Chips für den MCA PS/2, bzw. ISA-Karten für ältere PC/ATs, oder sehe ich das falsch? Die Angabe "fast identisch mit MCGA" stimmt so auch nicht. MCGA war von den nutzerrelevanten Fähigkeiten her doch eher eine aufgemöbelte CGA. -- 92.229.232.182 03:01, 25. Okt. 2009 (CET)Beantworten

Stimmt, VGA wurde für ISA "erfunden". MCGA ist jedoch meines Wissens eine auf 64 KB Bildschirmspeicher abgespeckte Onboard-Variante der VGA-Chips. Damit waren keine 640×480 in 16 Farben mehr möglich, aber der für Spiele beliebte 320×200 in 256 Farben schon. Müsste man mal in alten PC-Hardwarebüchern schauen, worin man softwareseitig VGA von MCGA unterscheiden konnte... --RokerHRO 05:48, 25. Okt. 2009 (CET)Beantworten
Nope. MCGA ist der Vorgänger von VGA und nicht eine abgespeckte Version von VGA, sondern eine aufgebohrte CGA, die auf dem Motorola 6845 basiert. Das erste Aufbohren war die enhanced CGA, die im IBM PcJr mit mässigem Erfolg, als Tandy-Color mit besserem Erfolg beschieben wurde. Durch eine Verdoppelung des Graphikspeichers waren nun 16 Farben bei 320*200 Bildpunkten möglich. Die MCGA bekam einen weiteren Adressierungsmode (8 bit per pixel) und die RAMDAC - damit ist sie aber noch ein Stück von einer VGA entfernt. EGA ist eine Paralellentwicklung mit eigenem BIOS und gaaaaanz grob kann man sagen, das EGA + MCGA = VGA. 79.212.148.209 20:21, 13. Okt. 2016 (CEST)Beantworten
Lege ich ein klein wenig Veto ein. MCGA und CGA verwendeten den Motorola MC6845, EGA verwendete einen eigenen CRTC, der zwar auf dem MC6845 basierte, bezüglich seiner Register jedoch zu ihm inkompatibel war. Damit gab es auf einer EGA grundsätzlich Probleme, wenn CGA-Graphik dargestellt werden sollte und der Mist direkt und nicht über das BIOS programmiert wurde. Technisch ist der VGA-Chip eine vollständige Neuentwicklung, der von den Fesseln einer CGA oder EGA befreien sollte und eine völlig flexible Auflösungsprogrammierung ermöglichte. Im Gegensatz zu seinen Vorgängern war bei VGA das Timing technisch nicht festgelegt, wohl aber durch viele Monitore (vor allem Festfrequenzmonitore). Dazu kam noch die Möglichkeit eines Portrenamings weshalb die VGA zu allen Vorgängern kompatibel betrieben werden kann. Man kann sagen, dass VGA seine Vorgänger einfach emuliert. Das man dennoch meist mit bestimmten Auflösungen arbeitete, lag an den damals zur Verfügung stehenden Monitoren. Mit SVGA kam dann noch die Möglichkeit dazu auf die RAMDAC zu verzichten und die Farben über RGB direkt im Framebuffer abzulegen, was zu HighColor und zu TrueColor führte. 2003:CB:A718:E601:C815:B12:7B6C:BE1D 20:03, 17. Okt. 2019 (CEST)Beantworten
Das ist falsch. VGA wurde von IBM für IBM's PS/2 erfunden. Die Dritthersteller versuchten dann VGA nachzumachen und waren dann diejenigen, die VGA kompatible ISA Karten auf den Markt brachten. Die Kompatibilität beschränkte sich allerdings auf das VGA BIOS. Sobald es darum ging, die Karten direkt zu programmieren, waren die im Wesentlichen inkompatibel. Aus dem Grund muss man zum Umschalten der Grafikmodi die CPU auch in den Real Mode schalten, wenn man die VGA BIOS Funktionen nutzen möchte. Für moderne Betriebssysteme ab Windows 95 gilt das im großen und ganzen nur deswegen nicht, weil es für die dann Hardwarespezifische Treiber gibt und die VGA BIOS Funktionen daher nicht benötigt werden. --84.158.120.82 03:28, 11. Jul. 2024 (CEST)Beantworten
Was die IP über MCGA schreibt ist korrekt. MCGA ist nur eine aufgebohrte Variante von CGA. VGA gab es da noch nicht, VGA kam später. Das kann man übrigens auch an GW-BASIC erkennen. Dort gibt es eine Möglichkeit die Grafikkarte in den MCGA Modus per SCREEN Methode von BASIC zu schalten, damit bekam man 256 Farben bei einer Auflösung von 320x200 Bildpunkten. Es war aber der reine MCGA Modus. VGA wurde von GW-Basic überhaupt nicht unterstützt, die SCREEN Funktion kann also nicht in Mode 13h schalten, was dem VGA Modus 320x200 Bildpunkten bei 256 Farben entspricht. Eine Unterstützung der VGA Modi gab es erst mit QBasic aus MS-DOS 5.0 bzw. QuickBasic. --84.158.120.82 03:36, 11. Jul. 2024 (CEST)Beantworten

Modus nach dem Einschalten

[Quelltext bearbeiten]

Befindet sich die VGA-Karte nach dem Einschalten in einem definierten Textmodus oder muss erst ihr Initialisierungscode im VGA-BIOS ausgeführt werden, der die dann in den Textmodus versetzt? --RokerHRO 15:14, 31. Aug. 2010 (CEST)Beantworten

Beim Einschalten startet jeder Grafikadapter (egal ob Hercules, CGA, EGA, VGA oder was auch immer - z.B. Textadapter) im Modus 0 (2h, 3h: Startadresse ab B8000h bei 80*25er Textmatrix), der von jeder Grafikkarte beherscht werden muss. Zu diesem Zeitpunkt weiß die Bootstrap-Logik noch nicht einmal welcher Adapter verbaut ist. Moderne Rechner schalten selbst gleich danach in einen Grafikmodus - in der Regel noch bevor das erste Bild auf dem Monitor erscheint. Thomas Merbold (Diskussion) 03:34, 16. Jun. 2013 (CEST)Beantworten
Das beantwortet meine Frage nur zum Teil. Es wird ja beim Booten des PCs auch das VGA-BIOS "gestartet" (d.h. beim Booten wird vom System-BIOS an bestimmten, wohldefinierten Adressen nach "Adapter-ROM" gesucht, und wenn gefunden, wird da reingesprungen), welches auf der Grafikkarte ist und somit "weiß", wie es die eigne Karte initialisieren muss. Die Frage war, ob eben diese Initialisierung vom VGA-Bios beim Booten erfolgen muss, oder erzeugt jede Grafikkarte, wenn ich sie nur mit Strom versorge, bereits von sich aus ein valides Bild auf ihrem VGA-/DVI-Ausgang?
--RokerHRO (Diskussion) 15:41, 16. Jun. 2013 (CEST)Beantworten
Die Initialisierung der Graphikkarte hat mit dem VGA-BIOS nichts zu tun. Eine VGA-Karte braucht zu seiner Initialisierung nicht die CPU des Hostsystems. Das Main-BIOS enthält Code für die MDA/CGA-Karte und hängt an - wenn ich mich noch recht erinnere - IRQ10. Enthält die Graphikkarte ein eigenes BIOS, so wird damit der CGA-BIOS-Bereich überblendet. EGA und VGA machen das so, nicht aber Hercules, weshalb es für HGA auch keine echte BIOS-Unterstützung gibt und die Programmierung vollständig über Ports geschehen muss. 79.212.148.209 20:08, 13. Okt. 2016 (CEST)Beantworten
Liebe anonyme IP,
deine ausführliche Antwort geht leider an meiner Frage völlig vorbei. IRQ10 ist der API-Einsprungpunkt für (primitive) Text- und Grafikfunktionen, der hat mit dem Initialisierungscode, der vom System- und VGA-BIOS beim Booten ausgeführt wird, nichts zu tun (wobei natürlich der Boot-Code im VGA-BIOS die Zieladresse für IRQ10 auf einen Einsprungpunkt im VGA-BIOS umschreibt und der Boot-Code möglicherweise auch anschließend diese API für eigene Grafikausgaben nutzt. Aber das war nicht meine Frage.) --RokerHRO (Diskussion) 21:51, 13. Okt. 2016 (CEST)Beantworten
Lieber RokerHRO
Ich empfehle dir die Lektüre des IMB BIOS Standards von 1986 (meine ich). Dort ist im Detail erläutert wie sich eine GraKa anzumelden hat und wie die Initialisierung erfolgt. Es gibt keine systemweite Initialiesung. Das BIOS beim Bootstrap interessiert sich nicht für die speziellen Eigenheiten einer Graphiklösung. Die Initialisieruung geschieht immer nach dem gleichen Schema. Vielleicht solltest du aber auch die Frage verständlicher stellen. 79.212.139.187 00:05, 16. Okt. 2016 (CEST)Beantworten
Ich denke, er will folgendes wissen: [i]Wenn man die VGA-Karte in ein System steckt, das das VGABIOS ignoriert, die Karte mit Strom versorgt und auf dem Textpuffer schreiboperationen durchführt, sieht man dann ein stabiles 80x25 Bild und den geschriebenen Text?[/i] ; da "moderne" VGA-Karten (NV42 und so) eigene Computer sind ist die Frage auch gar nicht so dumm, es könnte wirklich sein, daß die den BIOS-Bootstrap Code brauchen, um überhaupt die GPU zu starten und/oder in einen Emulationsmodus zu versetzen. VGA gab es auch mit reinem PCI und die konnte man auch in irgendwelche POWER-Syteme mit PCI stecken, dort wurde also garantiert kein VGA Bios ausgeführt. --178.4.147.182 15:06, 20. Mär. 2017 (CET)Beantworten
Nach weiterem Nachdenken lautet meine Antwort: nein, wahrscheinlich nicht. Bei meiner AGP-Karte bleibt der Schirm ohne Signal (also nicht nur dunkel), wenn sie wegen Kontaktvoodoo eingesteckt ist, aber nicht gefunden wird. Außerdem benutzten frühere Grafikkarten einen 6845 oder äquivalentes (die Register der VGA kommen einem auch bekannt vor), und dessen Register muß man eben erst mal programmieren, damit er irgendwas macht. Natürlich könnte man eine extra Logik bauen, die ihn nach Power on erstmal in Modus 0 bringt ohne Software, oder einen 6845 verbauen der hardwaremäßig in Modus 0 startet, aber das ist zusätzlicher Aufwand und war nie nötig, da diese Karten immer ein VGA BIOS hatten (und brauchten, wegen int 10 Funktionen, die ohnehin bereitgestellt werden mußten) --178.4.147.135 06:46, 21. Mär. 2017 (CET)Beantworten
Meines Wissens nach benötige man für Applerechner mit PowerPC CPU spezielle an den Mac angepasste Grafikkarten. Die hatten einen Aufpreis und der Unterschied machte ein ganz anderes Video BIOS. Es sollte somit nicht möglich sein, eine Grafikkarte für den IBM PC kompatiblen Rechner einfach in einen PowerPC basierten Mac zu stecken und dann zu erwarten, dass die einfach läuft. Zumindest nicht, solange das OS nicht gebootet ist. Das kann natürlich eine Grafikkarte mit Treibern auch direkt adressieren und braucht die Firmware daher, abgesehen vom erkennen welche Hardware drin steckt, eher nicht. Es kann aber sein, dass man bei Apple so schlau war und vom Video ROM BIOS einen anderen Bereich einblendet, den dann die Grafikkartenhersteller durch ein größeres ROM nutzen können, in dem dann PowerPC spezifischer Code implementiert werden kann. Die ROM Bausteine wären somit größer, hätten also eine größere Kapazität und je nachdem ob PC oder Mac blendet man dann die richtige Stelle in den Addressraum des Rechners ein. Damit wären diese Grafikkarten mit so einem größeren ROM Hybridkarten die sowohl auf dem x86 PC, als auch auf dem Mac laufen. Ob es so etwas gab, weiß ich allerdings nicht es wäre aber eine Erklärungsmöglichkeit für solche Karten. Die Grafikkarten waren damals jedenfalls rein passiv und machten nichts eigenes. Irgendwelche Initialisierungsfunktionen mussten von der Host CPU durchgeführt werden und der Code dafür war in der ROM Firmware enthalten, die beim PC Video BIOS heißt. Beim PC ist der VGA ROM Anteil übrigens nur 32 KiB groß. --84.158.120.82 03:21, 11. Jul. 2024 (CEST)Beantworten

Stellung von Microsoft

[Quelltext bearbeiten]

Von 1981 bis etwa 1990 nahm IBM bezüglich der PC-Hardware eine ähnliche Stellung ein wie bis 2005 Microsoft bezüglich der PC-Betriebssysteme (vgl. Microsoft Windows)

mMn hat MS diese Stellung noch immer, der Marktanteil von Linux ist gering und Apple kocht trotz x86 noch immer softwaremäßig sein eigenes Süppchen, Software-Standards, die in Linux geschaffen werden, werden deshalb von Windows nicht übernommen, umgekehrt aber oft schon, Treiber für Linux sind Mangelware und stammen meist nicht vom Hardwarehersteller, für Windows muss natürlich praktisch jeder Hardwarehersteller Treiber programmieren, weil sonst kann er nicht viel verkaufen, komerzielle Spiele gibts praktisch nur für Windows wegen DirectX und auch viel andere Software ist nur für Windows verfügbar (das gilt insbesondere für kommerzielle Software, aber nicht ausschließlich), Software, die nur für Linux verfügbar ist gibts eher wenig, usw. --MrBurns (Diskussion) 17:42, 25. Mai 2012 (CEST)Beantworten

Gemeint ist vermutlich, dass die verschiedenen DOS-Varianten (DR DOS, PC-DOS, PTS-DOS, FreeDOS) Kompatiblität zu MS DOS anstrebten, die aber ab dem Erscheinen von Windows 95 mehr und mehr zum Nischenprodukt wurden. Wirr und off-topic, daher entfernt. -- Sloyment (Diskussion) 15:50, 27. Mai 2012 (CEST)Beantworten

Inhalt der Default 256-Farbpalette

[Quelltext bearbeiten]

Die ersten 16 Farben entsprechen den CGA-Farben, aber woher kommen die übrigen Farbwerte? --RokerHRO (Diskussion) 18:19, 4. Sep. 2016 (CEST)Beantworten

Auch die CGA-Palette wurde nicht zufällig gewählt und ist auch nicht für CGA typisch - sie wurde also nicht von CGA übernommen. Die ersten 8 Farben bestehen aus den beiden Nichtfarben schwarz und weiß sowie je den drei Grundfarben des additiven Farbsprektrums rot, grün und blau sowie deren drei Komplementärfarben und Grundfarben des substraktiven Farbspektrums cyan, magenta und gelb. Die Farben 8-15 sind die gleichen Farben mit doppelter Helligkeit - schwarz und weiß ergibt dort zwei Graustufen. Es gibt einen Sonderfall: Da es nach diesem Muster keinen Braunton gibt, aber ein schmutzgelb, wird beim "halbe" gelb der Grünanteil erhöht womit sich ein braun ergibt. Die restlichen 240 Farbgrundwerte bei VGA sind nicht festgelegt - sie werden von den Programmen und Karten unterschiedlich zusammengesetzt, bestehen aber in der Regel aus einem gleichmässigen Einspreizen des Farbraums. Die Basisfarbpalette aus 8 Grundfarben, mit doppelter Helligkeit kombiniert zu 16 Basisfarben, ergibt eine eher harte Farbdarstellung, weshalb man z.B. beim C64 davon abwich, was zu seiner charakteristischen pastellartigen Darstellung führte, die auf Fernsehgeräten das Flimmern reduzierte. 79.212.148.209 19:55, 13. Okt. 2016 (CEST)Beantworten
Es stimmt natürlich, dass die restlichen Farben nicht einheitlich festgelegt sind, normalerweise sind es aber einfach die selben wie bei der ursprünglichen VGA-Karte von IBM. Unter DOS haben einige Spiele eigene Paletten verwendet. Im ROM der Grafikkarte ist nur die Standardpalette der jeweiligen Karte gespeichert. --MrBurns (Diskussion) 20:00, 13. Okt. 2016 (CEST)Beantworten
Liebe anonyme IP, du hast zwar viel geschrieben, aber dein langer Text geht an meiner Frage total vorbei.
Ich schrieb: "Die ersten 16 Farben entsprechen den CGA-Farben". Ich schrieb nirgends, dass diese zufällig gewählt worden wären. Deine überausführlichen Erklärungen, wieso die CGA diese 16 Farben benutzt sind richtig, aber waren nicht das Thema. Meine Frage war, nach welchen Kriterien die übrigen 240 Standard-Farben im 256-Farbmodus der VGA-Karte kommen. Dass man diese per Software änden kann, weiß ich. Aber auch das war nicht meine Frage, sondern ich fragte nach den Default-Farben.
Ach ja, generell: Wenn ich auf der DS etwas frage, dann eben nur, weil die Antwort darauf in den Artikel gehört aber dort leider fehlt.--RokerHRO (Diskussion) 21:44, 13. Okt. 2016 (CEST)Beantworten
Lieber RokerHRO
Was hast du "Das macht jeder wie er lustig ist" nicht verstanden. Es gibt keine Festelegung der Farben jenseits des Index 15. 79.212.139.187 23:48, 15. Okt. 2016 (CEST)Beantworten
Soso, aber wieso sind dann alle VGA-Kartenhersteller "gleich lustig" und benutzen die gleiche "Standard-/Default-Farbpalette", wie sie in nebenstehender Grafik dargestellt wurde? --~~
Weil sie, wie ich schon oben erwähnt haben, eben die meisten nach der ursprünglichen VGA-Karte von IBM richten. --MrBurns (Diskussion) 06:59, 21. Mär. 2017 (CET)Beantworten

DVI, HDMI sind Spezifkationen für Schnittstellen

[Quelltext bearbeiten]

Umfasst VGA nicht ebenfalls solch eine Schnittstelle? User:ScotXWt@lk 13:24, 16. Okt. 2017 (CEST)Beantworten

Ah, es scheint dieser Teil der Spezifikation ist unter VGA-Anschluss zu finden. User:ScotXWt@lk 13:42, 16. Okt. 2017 (CEST)Beantworten

VGA-Anschluss und hohe Auflösungen

[Quelltext bearbeiten]

"Für TFT-Displays mit einzeln ansteuerbaren Pixeln führt sie bei hohen Auflösungen (spätestens bei 1600×1200 Pixeln) zu Unschärfe und Unruhe (Moiré) im Bild." Nope - das hat nichts mit VGA zu tun. Bei uns wird FullHD über VGA über 10m vom Rechner an den Beamer übertragen und das Bild ist gestochen scharf. Ist bei uns noch so, weil ich keinen Bock habe den Putz aufzureißen und ein neues Kabel zu verlegen. Das Problem, das Viele haben mit verwaschenen, Moiré-lastigen Bildern mit Geisterbild liegt in aller Regel, dass beim Kabel mal wieder gespart wurde. Dieses Kabel hat damals 130 Euronen gekostet und die waren es wohl wert. 2003:CB:A718:E601:C815:B12:7B6C:BE1D 19:34, 17. Okt. 2019 (CEST)Beantworten

VGA geht nur bis zu einer Auflösung von 640x480 Bildpunkten und kann dabei nur 16 Farben. Mehr geht nur mit der VESA BIOS Extension, umgangssprachlich auch SVGA genannt, oder speziellen Treibern, die die erweiterten Fähigkeiten der Grafikkarte nutzen. Mit VGA hat letzteres dann aber auch nichts mehr zu tun. --84.158.120.82 03:06, 11. Jul. 2024 (CEST)Beantworten

Geschichte von VGA - Wir brauchen das mit Belegen

[Quelltext bearbeiten]

Hier ist ein guter Überblick über die Geschichte von VGA:

https://forum.osdev.org/viewtopic.php?p=280801#p280801

Das bräuchten wir jetzt für die Wikipedia in belegbarer Form, also Quellen, die man nutzen und im Artikel dann angeben kann. --84.158.120.82 03:02, 11. Jul. 2024 (CEST)Beantworten

VGA ist kein Standard, Quasi-Standard wäre korrekt

[Quelltext bearbeiten]

Im Artikel heißt es:

Video Graphics Array (VGA) ist ein Computergrafik-Standard,...

Das ist eigentlich falsch. Denn genaugenommen ist es ein Quasi-Standard. IBM hat VGA für den PS/2 entwickelt und die Daten nie rausgegeben. Dritthersteller haben versucht, zu den IBM VGA Karten kompatibel zu sein. Mangels Standardisierung und Spezifikation, wie VGA von IBM wirklich spezifiziert ist, schafften sie das aber nur auf Video BIOS Ebene, intern, auf Registerebene funktionieren die Karten alle unterschiedlich. Man kann also eine VGA Karte von Hersteller A (z.B. IBM) nicht auf Registerebene programmieren und dann erwarten, dass das Programm dann auch auf VGA Karte von Hersteller B fehlerfrei läuft. Das Programm wird nur auf der Hardware korrekt laufen, für die es speziell programmiert wurde. Will man ein Programm schreiben, dass kompatibel überall auf allen VGA Karten läuft, dann muss man die Video BIOS Routinen benutzen. Nur diese sind kompatibel und deren Nachfolger VESA VBE, der Rest nicht. Aus diesem Grund kann man auch eine VGA Karte nicht aus dem Protected Mode in einen anderen Grafikmodus umschalten, denn das Video BIOS funktioniert nur im Real Mode, will man also die Grafikmodi dennoch umschalten, dann müsste man vom Protected Mode in den Real Mode wechseln oder vom Protected Mode die Register direkt programmieren und an letzterem scheitert es, weil es für diese keine Standardisierung gibt und da jeder sein eigenes Süppchen gekocht hat. Das kann man auch hier nachlesen: https://forum.osdev.org/viewtopic.php?p=280801 Bezüglich Quellen, die als Belege taugen, geht auch das hier https://archive.org/details/dr_dobbs_journal_vol_15/page/427/mode/2up?view=theater da kann man nachlesen, dass die Kompatibilität nur auf VGA BIOS Routinenebene gegebenen ist. Damit ist VGA kein Standard, sondern eben nur ein Quasi Standard. --84.158.120.82 03:58, 11. Jul. 2024 (CEST)Beantworten