Diskussion:Von-Neumann-Architektur

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 4 Monaten von 109.43.48.0 in Abschnitt Das waren nur Elektronenröhren damals?
Zur Navigation springen Zur Suche springen
Diese Diskussionsseite dient dazu, Verbesserungen am Artikel „Von-Neumann-Architektur“ zu besprechen. Persönliche Betrachtungen zum Thema gehören nicht hierher. Für allgemeine Wissensfragen gibt es die Auskunft.

Füge neue Diskussionsthemen unten an:

Klicke auf Abschnitt hinzufügen, um ein neues Diskussionsthema zu beginnen.

Ich habe einen Einwand gegen die Formulierung "basiert scheinbar auf dieser Architektur". Zweifellos entspricht der Aufbau der heutigen Computer nicht mehr exakt dem Modell der Von-Neumann-Architektur, jedoch bedeutet der Satz so wie er dasteht, dass heutige Computer rein gar nicht auf der Von-Neumann-Architektur basieren. Dies ist aber nicht korrekt, da die Architektur nur modifiziert wurde (wie im Text auch erwaehnt: Anleihen). Ich schlage deshalb vor, das "scheinbar" wieder zu entfernen, lasse es aber vorerst weil ich weitere Meinungen hoeren moechte.

Wenn Du eine Formulierung findest, die näher an der tatsächlichen Architektur ist, darfst Du sie gern einarbeiten. Sei mutig! --Pinguin.tk 13:03, 15. Dez 2004 (CET)

Ok, ich hoffe die Formulierung ist gut.

Dieser Abschnitt kann archiviert werden. Moritzgedig (Diskussion) 11:32, 3. Mär. 2018 (CET)

Wahrscheinlichkeit

[Quelltext bearbeiten]

Zitat "Es ist aber wenig wahrscheinlich, dass von Neumann Zuses Arbeiten kannte, als er 1946 seine Architektur vorstellte." - Wie kommt man zu dem Schluß? 10 Jahre, Zuse war nicht irgendwer, und er soll nie was von gehört haben, "wahrscheinlicherweise"? -- Stoerte 14:06, 13. Jan 2005 (CET)

Halte diese Vermutung auch für äusserst kühn. Womit begründet ?--Jörg Junker 23:39, 04. Apr 2006 (CET)
Diesen Zuse kannte man vor dem Krieg nicht und nach dem Krieg auch eher noch nicht so sehr und Kontakte nach Computer Ingenieure nach USA hatte er auch vorher keine, das sind die Fakten! Wer was anderes behauptet, betreibt nur Zuse Werbung, damit sein Sohn auch noch heutezutage etwas Gelds verdienen kann (Bücher usw.). Außerdem ist ja bekannt, dass dieses Z1 von 1937 gar nicht funktionierte. Und selbst Z3 von 1941/42 gibt es keine Belege, da es ja angeblich im Krieg zerstört wurde und somit erst ein Nachbau nach dem Krieg gewertet werden kann. Die Medien und Politiker in Deutschland können mir erzählen was sie wollen, aber Erfinder des Computers ist nun mal grob gesagt, nicht so richtig! (nicht signierter Beitrag von 79.197.109.137 (Diskussion) 14:02, 5. Aug. 2011 (CEST)) Beantworten

Unklare Formulierung

[Quelltext bearbeiten]

Was möchte uns der Autor mit diesem Satz sagen? "Viele Ideen der sogenannten Von-Neumann-Architektur waren schon lange vorher 1936 von Konrad Zuse ausgearbeitet, (...)" Schon lange vor 1936, oder - beim zweiten Lesen vielleicht - schon lange vor 1946 (nämlich 1936)? Schnuffi72 01:47, 16. Mai 2006 (CEST)

Von Neumann Bottleneck

[Quelltext bearbeiten]

Der von-Neumannscher Flaschenhals wird zu wage beschrieben finde ich. Der Satz "...dass das Verbindungssystem zum Engpass zwischen dem Prozessor und dem Speicher wird" sagt aus, dass es am Verbindungssystem liegt. Aber ist das nicht die Tatsache, dass der Arbeitsspeicher viel langsamer ist als der Prozessor?

Hallo!
mE liegt das Flaschenhalsproblem bei der von Neumann-Architektur nicht nur an den langsamen Bussen, sondern auch daran dass es einen gemeinsamen Daten- und Instruktionsspeicher sowie einen gemeinsamen Datenpfad gibt. Zur Behebung dieses Problem gibt es nicht nur Caches, sondern auch alternative Konzepte, wie etwa die Harvard-Architektur, die getrennte Speicher und Datenpfade für Instruktionen und Daten vorsieht.
Ich habe allerdings nichts verändert, da ich nicht in die Konzeption des Artikels pfuschen wollte.
Gruß,
Andreas
Wenn ich das richtig verstanden habe (John Backus Artikel) liegt der Falschenhals vielmehr im Prinzip des wortweisen Zugriffs.
Die von ihm von-Neumann-Sprachen genannten konventionellen Sprachen haben dieses Prinzip geerbt. Es macht sich in Kontrollstrukturen wie while und for bemerkbar, die häufig nur dazu dienen sequentiell auf die Elemente einer Datenstruktur zuzugreifen.
Gruß,
Christian
In dem Abschnitt liest es sich so als ob das Bottleneck erst ab den Rechnern der 90er auftrat, das ist aber falsch. Der Flaschenhals war schon zu Beginn immer ein Makel dieser Architektur.
Gruss, Unbekannter
Liege ich falsch, oder ist das hier die deutsche Wikipedia? Bitte den Absatz übersetzen. Danke -- Holger1259 05:39, 12. Nov. 2011 (CET)Beantworten

Immer wieder Harvard

[Quelltext bearbeiten]

"Eine der wichtigsten Modifikationen ist dabei die Aufteilung von Befehls- und Datenspeicher gemäß der Harvard-Architektur. Einzelne Elemente der Harvard-Architektur fließen seit den 1980er Jahren verstärkt wieder in die üblichen Von-Neumann-Rechner ein, da eine klarere Trennung von Befehlen und Daten die Betriebssicherheit erfahrungsgemäß deutlich erhöht."

Es sieht so aus, als muesste um jeden Preis in jedem Neumann Artikel die Harvard Architektur genannt werden. Der ganze Absatz stimmt nicht. Das, was "interne Harvard Architektur" genannt wird, machte man ausschliesslich fuer die Geschwindigkeit, und nicht fuer die Sicherheit. Dabei liegen am Ende eben DOCH code und daten im selben Speicher. Zum 2. Satz: eingefuehrt wurde ein "execute bit" in der page table, mit welchem man das Ausfuehren von Daten verhindern kann, und das hat nichts mit der Harvard Architektur zu tun. 89.51.187.100 01:36, 21. Sep 2006 (CEST)

Ich halte einen kurzen Abschnitt zur HA für wertvoll solange er vornehmlich auf die Unterschiede eingeht. Nur wenn man alternativen kennt kann man etwas einschätzen einordnen. Versuchen sie mal ein Loch zu erklären ohne das Material darum herum zu erwähnen. --Moritzgedig (Diskussion) 10:55, 3. Mär. 2018 (CET)Beantworten
Dieser Abschnitt kann archiviert werden. Moritzgedig (Diskussion) 10:55, 3. Mär. 2018 (CET)

Die erste Grafik ist missververständlich und fehlerhaft:

  • Speicher gehört bei der Von-Neumann-Architektur nicht zur CPU
  • Klassischerweise gehört neben dem Steuerwerk das Operationswerk zur CPU. Die ALU ist zwar Teil des Operationswerkes, dennoch finde ich die Bezeichnung so sehr unglücklich.
  • Anhand der Skizze ist der Von-Neumannsche Flaschenhals nicht erkennbar, da es so aussieht, als ob Ein-und Ausgabe und Speichertransfers über separate Bussysteme ablaufen.
  • Warum gibt es eine gerichtete Kante von der Steuereinheit zur Eingabe?
  • Wie kommen Instruktionen aus dem Speicher in das Steuerwerk? Auch dies ist nicht erkennbar.

Mein Vorschlag ist, diese fehlerhafte Skizze zu entfernen. Die zweite auf der Seite existierende Skizze ist völlig ausreichend und korrekt!

Qualitätssicherung

[Quelltext bearbeiten]

Es verwundert doch sehr, dass hier eine QS-Warnung steht, aber keine Diskussion dazu stattfand. Kann man bitte nochmal erklären, was an dem Artikel nicht stimmt (und die Signatur bitte nicht vergessen)? Andernfalls ich die Warnung heraus nehmen würde. --Bernd vdB 12:58, 20. Mär. 2007 (CET)Beantworten

Dieser Abschnitt kann archiviert werden. Moritzgedig (Diskussion) 11:31, 3. Mär. 2018 (CET)

Rechenwerk != CPU

[Quelltext bearbeiten]

Hier im Artikel wird bei der Erläuterung von Rechenwerk auch davon gesprochen, dass es auch als Zentraleinheit bezeichnet wird. Aber die Zentraleinheit ist ja die CPU (Central Processing Unit) und wenn dann ergeben Rechenwerk und Steuerwerk zusammen die CPU, wenn das jemand auch so sieht, würde ich das ändern. Außerdem fehlt bei den Komponenten, die Erkläung zum Bus-System. --TTShooter 15:19, 16. Feb. 2009 (CET)Beantworten

Überholt... das ist heute nicht mehr sooo einfach zu gliedern - 1 Steuerwerk kann mehrere ALUs befeuern (z.B. Out-of-Order parallele Berechnungen), außerdem steuert es mittlerweile die FPU(s) und evtl. Vektor-Einheiten; und mit Hyper-Threading gehören dieselben ALUs dann u.U. zu einem weiteren -hm- Halb-Steuerwerk; außerdem kann ein Steuerwerk mehrere Registersätze verwalten (Hyper-/Multi-Threading)... sorry, das Konzept "1 ALU + 1 Steuerwerk = 1 Core" war mal zu 386er-Zeiten wahr, bei heutigen Prozessoren -tja- --arilou 11:44, 7. Okt. 2010 (CEST)Beantworten

Princeton-Architektur

[Quelltext bearbeiten]

"nach der gleichnamigen US-Universität"

Von Neumann war doch am Institute for Advanced Study in Princeton, nicht an der Princeton University. Demnach sollte die "Princeton-Architektur" doch eher nach dem Institut / dem Ort Princeton als nach der Uni. (nicht signierter Beitrag von 130.183.74.213 (Diskussion | Beiträge) 12:47, 21. Sep. 2009 (CEST)) Beantworten

Falscher Artikelname richtig ist Zuse Architektur.

[Quelltext bearbeiten]

Falscher Artikelname richtig ist Zuse Architektur.

im Artikel steht es doch geschrieben das nicht Neumann sondern Zuse diese Architektur entdeckt hat!

deswegen ist der Artikel Name nun-mal falsch! --Qaridarium 06:30, 24. Jun. 2010 (CEST)Beantworten

Die Geschichte zeigt leider, dass nicht immer der Erste auch Namensgeber ist oder den Ruhm für seine Entdeckung/Erfindung erlangt. Nahezu niemand (Fachautoren) nennt die Architektur "Zuse-Architektur" und als Lemma wird nunmal die typische Bezeichnung gewählt. --Cepheiden 08:11, 24. Jun. 2010 (CEST)Beantworten

Der Artikelname ist schon richtig. Für einige, ja man muss leider sagen, narzisstische Deutsche, gibt es nur einen ÜBERvater des Computers, aber das stimmte noch nie! Dieser Artikel ( http://www.br-online.de/bayern2/iq-wissenschaft-und-forschung/iq-iq-konrad-zuse-computer-ID1277200244749.xml ) sagt es ganz deutlich, das Zuse im Grunde auch Tulpenzüchter hätte werden können, den Computer (PC) an dem wir heute sitzen, hätten wir auch ohne eine Heulzuse ;-) (nicht signierter Beitrag von 93.232.38.181 (Diskussion) 22:21, 20. Aug. 2011 (CEST)) Beantworten

Ich hab in Deinem Kommentar mal das Wort "nazistisch" geändert, auch wenn es Jahre her ist.--Mideal (Diskussion) 11:25, 20. Aug. 2015 (CEST)Beantworten
Dieser Abschnitt kann archiviert werden. Moritzgedig (Diskussion) 11:30, 3. Mär. 2018 (CET)

Von-Neumann-Schema

[Quelltext bearbeiten]

Ich habe soeben ein neues Diagramm für das Von-Neumann-Schema reingestellt. (Das zweite Bild)
Ich habe die Grafik nach bestem Wissen und Gewissen erstellt, weiß aber nicht, ob es auch 100%ig richtig ist. Wenn Ihr Verbesserungsvorschläge habt, wäre ich sehr dankbar.

Das alte Schema habe ich entfernt, weil es
1. unübersichtlich aussah, weil die Pfeile an den Bussen wirklich furchtbar waren. Man sah nicht, wohin sie zeigen.
2. denke ich, dass es falsch ist, weil der Speicher meines Wissens nach nicht zur Zentraleinheit gehört.


--Medvedev 12:28, 4. Okt. 2010 (CEST)Beantworten

Harvard - Pufferüberlauf

[Quelltext bearbeiten]

Der abschliessende Satz im Abschnitt über die Harvard-Architektur über die Beherrschbarmachung von gefürchteten 'Pufferüberläufen' ist quatsch. Pufferüberläufe sind in der klassischen v.N Architektur genauso beherrschbar wie in einer Hardvard Architektur und haben weniger mit Architektur sondern mehr mit Programmierfehlern zu tun. Was aber gemeint sein dürfte: Es ist in einer Harvard-Architektur durch die getrennten Adressräume nicht mehr so einfach möglich, durch einen Pufferüberlauf fremden ausführbaren Code in ein Programm einzuschmuggeln. Das ist aber etwas ganz anderes als die Vermeidung von Pufferüberläufen. Wenn es rein um Pufferüberläufe geht, schenken sich klassische Architektur und Harvard Architektur nichts. --213.33.66.250 10:38, 24. Jan. 2011 (CET)Beantworten

Dieser Abschnitt kann archiviert werden. Moritzgedig (Diskussion) 11:29, 3. Mär. 2018 (CET)

Gewagt

[Quelltext bearbeiten]

"Um z. B. zu verhindern, dass bei Softwarefehlern Programmcode überschrieben werden kann, wurde (vor allem historisch) für den Programmcode ein im Betrieb nur lesbarer Speicher (z. B. ROM, Lochkarten) verwendet" - das ist ja gewagt. Wie hätte man in der Zeit denn sonst die Programme eingeben wollen? Per Telepathie, USB-Stick oder Scanner?--Mideal (Diskussion) 11:29, 20. Aug. 2015 (CEST)Beantworten

Dieser Abschnitt kann archiviert werden. Moritzgedig (Diskussion) 11:29, 3. Mär. 2018 (CET)

Eigenwerbung?

[Quelltext bearbeiten]

Ist ja schön, dass die Universität Hildesheim "unter der Leitung von Prof. Dr. Hans-Joachim Bentz" so tolle Arbeit macht. Aber leider ließt es sich so, als hätten sie den Abschnitt persönlich geschrieben. Auch sehe ich nicht, warum diese Architektur gegenüber anderen biologisch inspirierten Methoden bzw. Methoden, Neuronetze in Hardware zu gießen so herausstellenswert ist. --Mudd1 (Diskussion) 10:44, 17. Jan. 2016 (CET)Beantworten

Ich halte den ganzen Abschnitt für verzichtbar. Er dient nicht dem Verständnis der VNA noch ist er bezüglich seines komplexen Gegenstandes erhellend. Der ganze Artikel Assoziativmaschine ist nicht größer als dieser Abschnitt. Bis auf die Hildesheimer scheint niemand diesen Begriff noch zu nutzen. Klingt nach einer typisch deutschen akademischen Mauerblume. Die Welt ist 30 Jahre weiter und versucht sich an riesigen Neuronalen Netzen. --Moritzgedig (Diskussion) 11:13, 3. Mär. 2018 (CET)Beantworten
Dieser Abschnitt kann archiviert werden. Moritzgedig (Diskussion) 11:30, 3. Mär. 2018 (CET)

WP-TF

[Quelltext bearbeiten]

Informativ, einige Ergänzungen in diesem Artikel habe ich anläßlich der anstehenden Sichtung abgewiesen:

Der Grund ist, dass diese meines Erachtens zwar durchaus folgerichtige Argumente enthalten, aber dabei zu sehr in Richtung WP:Theoriefindung gehen.
Merke: Wikipedia ist vor allem eine Sammlung von (halbwegs reputablen) Quellen, nicht eine Sammlung kluger Schlußfolgerungen. Eine solche könnte als Online-Projekt durchaus Sinn machen - aber eben als ein eigenes. Am Rande, die Mediawiki Software ist frei verfügbar ;) --Bernd.Brincken (Diskussion) 18:16, 23. Nov. 2018 (CET)Beantworten

Komponenten der VNA

[Quelltext bearbeiten]

In der Originalveröffentlichung "First Draft of a Report on the EDVAC" redet v.N. von folgenden 5 Komponenten:

  • First: Central arithmetic part: CA
  • Second: Central control part: CC
  • Third: [...] Memory: M
  • Fourth: Input: I
  • Fifth: Output: O

Ob man jetzt Input/Output zu einer Komponente gruppiert oder nicht sei jetzt Mal dahingestellt, aber v.N., redet definitiv nicht von einer gesamten Komponente die den Rest verbindet. Gibt es einen Grund warum hier das Bussystem explizit aufgeführt wird, und nicht implizit -- wie von v.N. gedacht? Die englische Wikipedia tut dies ebenfalls nicht.

--Ljrk (Diskussion) 16:20, 21. Nov. 2020 (CET)Beantworten

Da muss ich zustimmen: In diesem Artikel und vielen aktuellen Literaturstellen zum Thema wird das Bussystem als ein Hauptbestandteil der Von-Neumann-Architektur dargestellt. Das ist so nicht richtig. In von Neumann's Schriften ist keine Rede von einem Bussystem. Bussysteme (also Sammelleitungssysteme, auf welche mehrere Signalquellen senden) waren zu dieser Zeit nicht üblich und machbar. Selbst die Großrechner der 70ger Jahre auf der Basis der ersten TTL-Gatter (z. B. EC 2640) realisierten die notwendigen Verbindungen (z. B. von CPU und Ein-/Ausgabekanälen zum Hauptspeicher) einzeln und „sammelten“ sie durch ein großes ODER (8-er-NAND-Gatter) bzw. einen Multiplexer. Dadurch entstand allerdings ein „wüstes Kabelgrab“ und die Bereitstellung von Open-Kollektor- und Tri-State-Endstufen, die verdrahtete UND/ODER und Bussysteme gestattete, war „ein Segen“ für die Entwickler. Seit der Erfindung des Mikroprozessors sind Bussysteme nicht mehr wegzudenken, aber zur Realisierung der Von-Neumann-Architektur sie nicht notwendig. Man sollte dieser Verallgemeinerung im Artikel Rechnung tragen und statt vom Bussystem vom „Verbindungssystem“ sprechen, mit dem Hinweis, dass dieses heute üblicherweise und effektiv als Bussystem realisiert wird. --Reseka (Diskussion) 17:36, 22. Nov. 2020 (CET)Beantworten

Übersetzung präzisiert

[Quelltext bearbeiten]

Hatte Zeit und mir erlaubt, die Übersetzung zu entschwurbeln - nicht perfekt, aber ausbaufähig

Aufm Speicher als Dachboden ist natürlich Totalquatsch und ein erläuterndes Geschwurbel nicht zielführend = auch bei schlechten Übersetzungsmaschinen sollten Anmerkungen des Übersetzers kenntlich sein.

[zu den Anmerkungsklammern: TF=Theoriefindung aka Geschwurbel EZ Einzahl, MZ Mehrzahl

alt: „Sicherlich muss es auf eine weniger primitive Art(way=Weg) möglich(TF) sein, große Änderungen auf dem(in=im) Speicher durchzuführen, als riesige Mengen von Daten(TF)wörtern vor und zurück durch den Von-Neumann-Flaschenhals zu schieben. Diese Röhre bildet(TF is=ist) nicht nur einen wörtlichen(TF literal=buchstäblich) Flaschenhals für den Datenverkehr eines Problems, sondern, was noch(TF) wichtiger ist, es ist ein intellektueller Flaschenhals, der uns an ein Denken „ein Datenwort auf einmal“(Geschwurbel one word-at-one-time thinking = ein-Wort-zu-einer-Zeit Denken) gebunden hat, anstatt uns zu ermutigen, in den Begriffen der größeren konzeptuellen Einheiten der vorliegenden Aufgabe zu denken. Folglich ist Programmieren im Kern das Planen und Ausarbeiten(TF detailling = dt. verb Detaillieren = im Einzelnen darlegen, ausführen, gestalten) des enormen Verkehrs an Datenworten(Informatik:Datenwörter of= hier von) durch den Von-Neumann-Flaschenhals, und ein großer Teil dieses(that=jenes) Verkehrs betrifft nicht die signifikanten Daten selbst, sondern wo diese zu finden sind(it=es, was Einzahl).“

Englisch und neu:

   “Surely there must be a less primitive way of making big changes in the store than by pushing vast numbers of words back and forth through the von Neumann bottleneck. Not only is this tube a literal bottleneck for the data traffic of a problem, but, more importantly, it is an intellectual bottleneck that has kept us tied to one word-at-a-time thinking instead of encouraging us to think in terms of the larger conceptual units of the task at hand. Thus programming is basically planning and detailing the enormous traffic of words through the von Neumann bottleneck, and much of that traffic concerns not significant data itself, but where to find it.”
   „Sicherlich muss es einen weniger primitiven Weg geben, große Änderungen im Speicher vorzunehmen, als riesige Mengen von Wörter durch den von-Neumann-Flaschenhals hin und her zu drücken. Nicht nur ist diese Röhre ein buchstäblicher Flaschenhals für den Datenverkehr eines Problems, sondern, viel wichtiger, es ist ein intellektueller Flaschenhals, der uns an ein-Wort-zu-einer-Zeit Denken fesselte, anstatt uns zu ermutigen, in größeren konzeptionellen Einheiten der anstehenden Aufgabe zu denken. Folglich ist Programmieren grundsätzlich die Planung und die Detaillierung des enormen Verkehrs von Wörter durch den Von-Neumann-Flaschenhals und ein Großteil jenes Verkehrs betrifft nicht diese Daten selbst, sondern wo was zu finden ist.“

Inhaltlich: Das wesentliche am Flaschenhals aka Engpass aka Nadelöhr war die enge ein-Wort-zu-einer-Zeit Hürde, wobei durch diesen einen Kanal alle (Daten)Wörter mussten: - die zu bearbeitenden Inhalte = eigentliche Daten - Programmierbefehle - Unmengen von begleitenden und ins Detail beschreibenden Metadaten wie Ortsangaben--87.180.14.128 10:01, 8. Nov. 2021 (CET)Beantworten

Das waren nur Elektronenröhren damals?

[Quelltext bearbeiten]

Wir müssen bedenken,

dass es anfangs nur Radioröhren bzw. Elektronenröhren waren, die gebaut (in Glas eingeschweißt) wurden und erste Operationen 0-1-0 ausführten. Also der damalige Erfolg hat was ausgelöst? Viel? Ganz interessant wäre, wie das weiter entstanden ist - enorme Wissens und Synergieeffekte möglich - aus dem Verlauf des Entstehungsprozesses - unglaublich Gut! Analyse. Anfang hier.

Grüße

P.S.: Vielleicht ist immer kleiner doch nicht so gut - aber mit pefas eingeschweißt hälts wenigstens die Garantie... --109.43.48.0 22:19, 11. Jul. 2024 (CEST)Beantworten