Diskussion:Intel 80386

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 4 Monaten von Y2kbug in Abschnitt Markteinführung Komplett-Systeme
Zur Navigation springen Zur Suche springen

(Markteinführung)

[Quelltext bearbeiten]

Wann genau kam der erste 80386 auf den Markt? --Benutzer:84.176.50.159

Ich meine, mal 1985 als Erscheinungsjahr gelesen zu haben. Anders als heute gab es aber nicht gleich PCs mit diesem Prozessor zu kaufen, da zum einen die Entwicklungszyklen damals noch viel länger waren und zum anderen war der 386er bei seiner Einführung einfach nur sündhaft teuer, und die benötigten 32-bit-Chips ebenfalls. Somit kam 1989(?) eine abgespeckte Variante des 386er heraus, welche zu den bereits etablierten 16-Bit-Chips des 286er kompatibel war. Damit konnten relativ preiswerte 386er-Systeme hergestellt werden. Noch Anfang der 1990er galt ein 386 DX als "High End"-CPU, ein 386 SX kam in Mittelklasse-PCs zum Einsatz und die Einsteiger-PCs wurden immernoch mit 286ern ausgeliefert. Und das, obwohl der 286er schon fast 10 Jahre alt war! Soviel zur PC-Geschichte. :-) --RokerHRO 15:37, 8. Nov. 2006 (CET)Beantworten
Als ich 1989 meinen 386DX/33 gekauft habe, galt der 286er durchaus schon als antik. Der 386SX kam iirc übrigens schon Ende Frühjahr 1988 und begann recht flott das "Niedrigpreis"-Segment zu erobern, wenngleich 286er bis in die sehr sehr frühen 1990er Jahre verfügbar waren. Und dass der 386DX "Anfang der 1990er" als Highend galt, ist auch stark übertrieben. Wenn Du mit "Anfang der 1990er" das Jahr 1990 selbst meinst, ist das vielleicht grade noch richtig, aber Highend war zu dieser Zeit genaugenommen auch schon der 80486.--Ruscsi 11:36, 17. Okt. 2007 (CEST)Beantworten
Ich bezog mich bei meiner Aussage auf alte Computerzeitschriften. Was sie damals so an "Neuheiten" angekündigt, vorgestellt und getestet haben und ... was man dann im Anzeigenteil bei den Versandhändlern bestellen konnte. Ich sollte mal im Altpapierstapel stöbern, vielleicht find ich da mal was konkretes. :-) --RokerHRO 12:50, 17. Okt. 2007 (CEST)Beantworten
1989 galt der 286er noch nicht als Antik und in dieser Zeit standen beide Systeme fast gleichwertig bei den Kistenschiebern. 1989 bis 1990 nahm der 286 die Rolle ein, die heute der Celeron innehat. Erst Anfang der 1990er Jahre wurde der 286 von 386 SX verdrängt. 79.209.176.7 22:58, 13. Nov. 2010 (CET)Beantworten
1989 war der 386er immer noch sündhaft teuer. Ein Komplettrechner mit 386 CPU kostete über 6000 DM und das war auch noch am Jahresende so. Wenn es theoretisch seit 1985 eine bessere CPU gibt, dann ist der 286er rein technisch betrachtet zwar Antik,aber dies muss man auch im Verhältnis zu dem sehen, wass man in den Computerläden angeboten bekommen hat und da war der 286er zu seinem Preis von ca. 3000 DM keineswegs Antik, sondern Stand des Mainstreams. 386er kauften sich eigentlich nur diejenigen, die sich ihn leisten konnten oder besondere Coputergeeks waren, die bereit waren, für einen Rechner so viel Geld auszugeben. --91.89.138.41 08:43, 8. Mai 2014 (CEST)Beantworten

(Historische Bedeutung)

[Quelltext bearbeiten]
Mich würde es doch interessieren wenn jemand ein bis zwei Sätze zu der historischen Bedeutung von 80386 hinschreiben könnte. Das war doch ein wichtiger Meilenstein, aber da steht im Artikel kaum etwas... 80.108.103.172 21:44, 8. Feb. 2009 (CET)Beantworten
Steht doch da: Der 386 führte die (erst später so bezeichnete) "i386"-Plattform ein, die heute immernoch in den meisten PCs existiert/benuzt wird. Was vermisst du denn noch? --RokerHRO 12:32, 9. Feb. 2009 (CET)Beantworten
Der 386 war auf dem PC die erste 32 Bit CPU und führte Paging und damals ganz wichtig, den virtual 8086 mode ein, damit war es möglich Realmode Programme innerhalb einer Protected Mode Umgebung auszuführen. Dies konnte der 286er nämlich nicht, obwohl auch dieser schon den Protected Mode unterstütze. Dies ebnete den Weg für moderne Betriebssysteme wie Windows NT oder das spätere OPS/2 Warp. Dennoch war er für die meisten Privatpersonen sündhaft teuer, so dass seine Fähigkeiten erst sehr spät ab etwa 1992 von der breiten Masse ausgenutzt werden konnte, die meisten stiegen hierbei dann gleich mit dem dann deutlich im Preis gefallenen 486er in die i386er Welt ein. D.h. so richtig genutzt wurden die Features eigentlich erst, als der 486er Mainstream war und das meist auch nur unter Nutzung von DPMI und DOS/4G womit er noch nicht sein volles Potential entfaltete. Hierzu war ein echtes Protected Mode Betriebssystem wie Windows NT notwendig. Dieses war damals allerdings noch ebenfalls zu teuer und hatte auch einen enormen Speicherbedarf, was die Lage noch verschräfte, denn Speicher war noch teurer. --91.89.138.41 09:00, 8. Mai 2014 (CEST)Beantworten

Assembler

[Quelltext bearbeiten]

Der Artikel spricht die Assemblersprache ausschliesslich auf die Prozessoren der Computergeschichte an. Es darf zumindest erwähnt werden das fast sämtliche Elektronik (Vorallem Industrie z.B. Sensoren) immernoch komplett mit Assembler geschrieben werden. Artikel ist meiner Meinung nach zu sehr auf Computer bezogen. 83.76.197.197 16:59, 23. Mai 2007 (CEST)Beantworten

Was hat das jetzt mit diesem Lemma zu tun? IMHO gar nichts. --RokerHRO 18:08, 23. Mai 2007 (CEST)Beantworten
Wahrscheinlich wollte er hier posten. -Appaloosa 19:39, 23. Mai 2007 (CEST)Beantworten

Lemma

[Quelltext bearbeiten]

Da alle Intel-Prozessoren einen Artikel mit dem Lemma „Intel 80x86“ haben (siehe die Navigationsleiste), sollte dieser Artikel, da er ja die 80386er im Allgemeinen behandelt, umbenannt werden.

Mein Vorschlag lautet:

Danach sollte aus jedem Artikel zu den 80386-Prozessoren ein Link zu diesem Allgemeinen Artikel hergestellt werden.

Sollte sich nach ca. 30 Tagen niemand gegenteilig äußern bzw. entsteht keine fruchtbringende Diskussion darüber, werde ich dies danach umsetzen.

Gruß ‣Andreas 14:49, 29. Aug. 2008 (CEST)Beantworten

Nun ja, nachdem das derzeit für mich nicht lösbar ist, und – man hat es sicher schon bemerkt – sich noch nichts getan hat in dieser Sache, lasse ich derzeit die Finger davon. Gruß, ‣Andreas 23:35, 15. Jun. 2009 (CEST)Beantworten
Siehe auch: Diskussion zu Lemma auf Intel 80486


Warum gibt es überhaupt 2 Artikel zum selben Thema? Die Inhalte sind, bis auf die Formulierung, nahezu identisch. Allerdings ist der Artikel "i386" weniger vollständig. Eine Löschung sollte erwägt werden. -- 62.48.72.6 11:00, 25. Jun. 2009 (CEST)Beantworten

Prozessor bugs

[Quelltext bearbeiten]

In diesem Artikel sollte etwas zu den verschiedenen 386er-bugs (POPAD bug, MUL bug, ...) erwähnt werden, und zwar sowohl in technisch exakter als auch allgemeinverständlicher Form sowie mit Beispielen wie beim Pentium-FDIV-Bug. Ein 386er-PC mit Linux ist zur Generierung von Beispielen, z.B. falsche Rechenergebnisse (ausgenommen Sachen, die zum Systemcrash mit Datenverlust führen), verfügbar.--Arnulf zu Linden 01:31, 16. Okt. 2008 (CEST)Beantworten

Wenn du Informationen darüber hast, nur her damit. Relevant ist es sicher. :-) --RokerHRO 12:57, 16. Okt. 2008 (CEST)Beantworten
Ein Anfang, für genauere Angaben sind hier die Prozessor-Freaks gefragt.--Arnulf zu Linden 20:02, 24. Okt. 2008 (CEST)Beantworten
Danke, prima! :-) Hast du für deine Aussagen vielleicht auch noch ne Quelle? Das mit dem Test Linux-Kernel müsste man doch finden oder? --RokerHRO 11:24, 25. Okt. 2008 (CEST)Beantworten
Das ist ein Extrakt aus mehreren recht unübersichtlichen Webseiten und das mit dem Linux-Kernel findet sich in einem für 386er kompilierten Linux-Kernel und für Menschen lesbar im Kernel-Sourcecode, beim 2.6er Kernel in der Datei ../linux/arch/x86/kernel/cpu/bugs.c
--Arnulf zu Linden 02:32, 8. Nov. 2008 (CET)Beantworten

MUL Bug

[Quelltext bearbeiten]

/*--- MUL-Bug --- Dieser Fehler tritt nur bei frühen 386-Versionen mit 16 und 20 MHz (A- und B-Steppings) auf, wobei nicht jede einzelne CPU davon betroffen ist. Der Fehler tritt bei der Multiplikation von 32-Bit-Zahlen (MUL als 32-Bit-Befehl) auf und führt zu einem falschen Rechenergebnis, bei Verwendung eines 80387-Koprozessors kann die CPU in einen undefinierten Zustand versetzt werden. Der Fehler wurde erst Anfang 1987 erkannt. Auf Grund des Fehlers sah sich Intel zu einer der ersten großen Rückrufaktionen in der Firmengeschichte veranlasst. Die zurückgelieferten CPUs wurden von Intel geprüft und bei bestandenen Test mit „ΣΣ“ (Doppel-Sigma) gekennzeichnet wieder in Umlauf gebracht. Exemplare, die den Test nicht bestanden, wurden ebenfalls wieder in Umlauf gebracht, allerdings mit der nachträglich aufgebrachten Aufschrift „16 BIT S/W ONLY“, die darauf hinweisen sollte, dass der MUL-Befehl als 32-Bit-Befehl nicht zu verwenden sei.*/

Diese Bug ist mir nicht bekannt und lässt sich auch in den Errataunterlagen, die mir zugänglich sind nichtfinden. Damit der Text nicht ganz verloren geht (damit man sich nicht durch die Versionen hangeln muß), habe ich diesen hier einkopiert. Falls eine plausible Quelle gefunden wird, mit dieser der Bug belegbar ist (Intelliteraur, Scans von alten Zeitungsberichten, etc ) kann der Text dann wieder eingefügt werden. (Hinweis: Der englische Wikitext ist schon mal eine zuverlässige Quelle) --79.199.70.236 02:15, 16. Mär. 2010 (CET)Beantworten

L1 Cache - Wieso nicht vorhanden?

[Quelltext bearbeiten]

Das die CPU damals selbst noch keinen Cache hatte und dieser auf dem Mainboard ausgelagert war ist ja richtig, aber wieso wird dann im Artikel beim i386DX geschrieben, dass dessen L2 Cache vom Mainboard abhängig wäre? Meiner Meinung nach ist das falsch, denn wenn es in der CPU keinen Cache gibt, dann ist der Cache auf dem Mainboard ja automatisch der L1 Cache und nicht der L2 Cache. Die Caches sind schließlich in Stufen hintereinandergeschaltet, einen L2 Cache kann es also somit nur dann geben, wenn es auch einen L1 Cache gibt (abschalten kann man den L1 Cache allerdings unabhängig vom L2 Cache). Wie der Cache also genannt wird, ist eine reine Definitionsasache und hängt in erster Linie davon ab, in welcher Reihenfolge/Stufe er mit der CPU verbunden ist. Wenn ein Rechner auf der CPU also keinen Cache hat, aber dafür auf dem Mainboard, dann ist der Cache auf dem Mainboard der L1 Cache. Und sollte das Mainboard noch einen weiteren größeren noch langsameren Cache verbaut haben, dann wäre dies dann der L2 Cache. --91.89.138.41 08:28, 8. Mai 2014 (CEST)Beantworten

Kurze Antwort: Nein
Die Bezeichnungen 1rst, 2nd und 3rd Level Cache suggerieren eine Zählweise, was aber nicht korrekt ist. Der erste Prozessor von Intel mit einem 1rst Level Cache war der i486, der erste mit einem "richtigen" der Pentium. Es ist auch nicht entscheidend wo der Cache sitzt, ob OnDie, OnChip oder OnBoard. Die Unterscheidung wird durch die Aufgabenteilung getroffen und vor dem i486 sprach man nur von Cache, erst mit dem i468 wurde der Cache des 386 zum 2nd Level Cache, eine 1rst LC hat er nicht.
1rst Level Cache: Er ist der einzige, der immer einen festen Ort hat, denn er muss prinzipbedingt im Core der CPU sitzen und läuft mit voller CPU-Frenquenz und mit Ausnahme des beim i486 ist er immer nach der Harward-Architektur aufgebaut. Damit wird verhindert, dass ein hoher Datendurchsatz permanent den zugehörigen Code verdrängt. Da die Unterscheidung was Daten und was Code ist nur der Core selbst treffen kann, muss er zwangläufig Bestandteil desjenigen sein. Er ist zudem der einzige, der durch Instruktionen bewußt manipuliert werden kann - z.B kann durch eine Instruktion ein Flush ausgelöst werden. Damit ist es durch einen Trick möglich den 1rst LC wie eine Registerbank zu verwenden, denn der Zugriff auch den 1rst LC ist nicht langsamer als auf ein Prozessorregister. Beim DEC Alpha wurde der Instruction-Cache auch zu Sprungvorhersage genutzt, was der Pentium nicht konnte.
2nd Level Cache: Er sitzt bei allen heutigen CPUs OnDie, beim Pentium Pro OnChip und beim 386er OnBoard. Im Gegensatz zum 1rst LC weiß der CPU-Kern nichts von der Existenz eines 2nd LC und aus diesem Grund braucht der 2nd LC einen Cache Controler, der zum Cache gehört. Jede Speicheranfrage der CPU, die nicht durch den 1rst LC bedient werden kann, schickt die CPU eigentlich an den Adressbus - wird aber vorher vom Cache Controler abgefangen und gegen den Cacheinhalt verglichen. Da der Controler nicht weiß, ob es sich um Code oder Daten handelt, ist der 2nd LC ein von Neumann Cache. Er läuft bei heutigen CPUs mit der vollen, früher in der Regel nur mit der halben CPU Frequenz. Grundsätzlich sind aber die Latenzzeiten beim 2nd LC ungünstiger.
3rd Level Cache: Ihn gibt es bei Multicore-CPUs. Während sich 1rst und 2nd LC immer an einen Kern binden, gilt der 3rd LC für alle Kerne einer CPU. Damit wird verhindert, dass wenn nach einem Kontextwechsel ein Thread von einem anderen Kern bearbeitet wird, die ganzen Daten erst wieder mühsam aus dem Speicher geholt werden müssen. Dieser Cache optimiert zudem die Speicherzugriffe beim Erzeuger-Verbraucherproblem zwischen zwei Prozessen/Threads, die auf unterschiedlichen Kernen laufen.

Die Cachegrößen sollten aufsteigend ganzahlige Vielfache sein. Die Saklierung der Cachjegrößen, die Assoziativität und die Anbindung ist ein Wissenschaft für sich. Während Intel auf eher kleine 1rst LC und große 2nd LC setzt, setzt AMD auf eher große 1rst LC und kleine 2nd LC.

Zusammengefasst:
  • Der 1rst Level Cache dient innerhalb des Kerns der Zugriffsoptimierung. Eine Zählvariable z.B. muss bei schnellen Durchläufen nicht jedesmal langsam in den Speicher zurückgeschrieben werden. Der Pentium IV speicherte im 1rst Level Instruction Cache nicht mehr den Speicherinhalt, sondern die bereits dekodierten Befehle.
  • Der 2nd Level Cache dient im wesentlichen dazu unütige Speicherzugriffe zu verhindern, weil dann die CPU auf die Buszyklen heruntergebremmst wird.
  • Der 3rd Level Cache dient dem Abgleich zwischen verschiedenen Kernen.

Besonderheiten:

  • Der i486 hatt zwar einen 1rst LC, der aber nach von Neumann aufgebaut war und über keine Hawardarchitektur verfügte. Damit war es keine Kunst für den Pentium bei gleicher Taktfrqeuenz knapp die doppelte Leistung zu erreichen. Der supersaklare Aufbau der Pentium trug interessanterweise den kleinern Beitrag zum Perormanceschub.
  • Bei der Core-Mikroarchitektur von Intel mit mehreren Kernen gab es keinen dedizierten 3rd Level Cache, dort musste der 2nd LC einen Teil der Aufgabe übernehmen, was ihm in vielen Fällen mehr schlecht als recht gelang. Mit den Core-i Modellen wurde der 3rd LC eingeführt und dies ist der Hauptgrund, warum diese deutlich schneller sind - vor allem bei Multithreaded-Anwendungen.
Die Aufgabe des Caches in einem 386er System ist das Abfedern der Speicherzugriffe der CPU auf den langsamen Hauptspeicher und das ist die Hauptaufgabe des 2nd Level Cache und genau einen solchen haben viele 386er Systeme mit mehr als 20 MHz79.212.177.72 21:07, 18. Jun. 2014 (CEST)Beantworten
Es gibt bei älteren Mainboards auch oft Caches, die weder OnChip noch OnBoard sind, sondern auf einem Extramodul, das einem Speichermodul ähnlich ist. Diese Art von Cache nennt man COAst (Cache on a stick). Der Core 2 war übrigens zum Zeitpunkt der Einführung performancemäßig allen anderen CPUs weit überlegen und bei den Dual-Core-Modellen war er shared, daher wurde für beide Cores verwendet, nur bei Kentsfield/Yorkfield gabs für die Quadcores 2 L2-Caches, weil diese CPUs auch 2 Dice hatten. --MrBurns (Diskussion) 00:28, 19. Jun. 2014 (CEST) Erweitert --00:52, 19. Jun. 2014 (CEST)Beantworten
Eine unbedarfte Anmerkugn von mir: Kann es sein, dass der LC2 ursprünglich die Rolle des LC3 hatte? sprich als die Multicores auf den Markt kamen glaube ich mich erinnern zu können, dass es nur einen LC2 für beide Kerne gab. MAn hat dann gemerkt, dass sich die beiden Cores gegenseitig den LC2 regelmässig zerschießen und hat die bei Core-i durch die Einführung eines zusätzlichen Caches gelöst, dem LC3, der für alle Cores gilt während der LC von da an nur noch für je einen Core gilt. Übrigens - dieser Text wurde auch einem Yorkfield geschrieben - seltsames Konstrukt, das ich nicht als Quadcore bezeichne, sondern als 2+2. Leistet aber immernoch gut seinen Dienst und der rund zehn Jahre alte Knabe ist mir auch heute noch flink genug. Pasqual Fehn (Diskussion) 15:44, 9. Jun. 2019 (CEST)Beantworten

Die-Größe fehlerhaft?

[Quelltext bearbeiten]

Wie kann es sein, dass ein 386SX, der über einen schmaleren Daten- und Adressbus verfügt, aber in der moderneren CHMOS IV, 1,0 µm Fertigungstechnik gefertigt sein soll, die gleiche Chipfläche haben soll, wie ein älterer 386DX, der einen breiteren Daten- und Adressbus hat und bei der angegebenen gleichen Fläche in der älteren CHMOS III mit 1,5 µm Fertigungstechnik gefertigt wurde, während seine späteren Revisionen in CHMOS IV mit 1,0 µm Fertigungstechnik, die der gleichen Fertiungstechnik entsprechen, wie der 386SX, nur noch eine Chipfläche von 39 mm² haben soll? Das mit den 104 mm² Chipfläche für den 386SX kann daher nicht stimmen, sie müsste entsürechend der Logik ebenso 39 mm² betragen, da sowohl der 386SX, als auch die späteren Revisionen des 386DX in der CMOS IV Fertigungstechnik gefertigt wurden. --109.192.233.42 02:59, 21. Jun. 2020 (CEST)Beantworten

Markteinführung Komplett-Systeme

[Quelltext bearbeiten]

1985 bzw 1986 sieht rückblickend sehr früh aus, als noch Homecomputer aktuell waren. Mich wundert es in welchen Computern wurde dieser Chip überhaupt verbaut, bevor die typischen 386-PCs Jahre später erschienen? Gibt es da namhafte Computerhersteller wie etwa IBM? --185.12.130.191 18:43, 11. Jul. 2024 (CEST)Beantworten

1986 z.B. im Compaq Deskpro 386. ‣Andreas 20:23, 11. Jul. 2024 (CEST)Beantworten