Diskussion:Mooresches Gesetz
Ortho-/Typografischer Hinweis zur korrekten Schreibweise
[Quelltext bearbeiten]Da ich es satt habe, alle paar Monate wieder von Vorne mit den Korrekturen der falschen Schreibweise(n) zu beginnen, nur weil jemand diese in Ermangelung ausreichender Orthografie-Kenntnisse für falsch hält, versuche ich es jetzt mal mit einem Eintrag auf der Diskussionsseite (ich hoffe sehr, dass sowas überhaupt auf die Diskussionsseite darf und mich.nicht einer löscht :-O!) in der vagen Hoffnung, dass meine Bemühungen diesmal nicht umsonst waren… X-(
Seit der (bis heute gültigen) „Reform der (Rechtschreib-)Reform“ zum 01.08.2006 herrscht ganz offenkundig große Verwirrung bezüglich bzw. Unkenntnis (nicht nur) über die korrekte Schreibweise von nach Personen benannten „Gesetzen“ (o. Ä.) mit -schen, was leider zur Folge hat, dass die betroffenen Wörter in fast sämtlichen einschlägigen Wiki-Artikel orthografisch falsch sind! Am Bsp. dieses Artikels hier eine Übersicht:
- Aktuell korrekte Schreibweisen (seit 08.2006): Moor’sches Gesetz ODER mooresches Gesetz!
- Bis vor der (ersten) Reform, also nach „alter“ Rechtschreibung (bis 01.1998/07.2005): Moore’sches Gesetz
- Nach Inkrafttreten der ersten Reform (spät. ab 08.2005) bis zur „Reform der Reform“ (seit 08.2006): mooresches Gesetz
Ebenfalls aus gegebenem Anlass noch ein Wort zur (Mikro-)Typografie:
- Bei Schreibweise mit Apostroph ist der aus der Sonderzeichenliste unten (’) zu gebrauchen, und nicht der, der (nur) mit der Tastatur eingegeben wird (')!
Es wäre schön, wenn Ihr in Zukunft ein bisschen darauf achten würdet. Vielen Dank!
-- CSp1980 23:33, 11. Feb. 2011 (CET)
- Alles bekannt, siehe Wikipedia:RS#Von_Personennamen_abgeleitete_Adjektive. Allerdings besteht kein wirklicher Konsens in diesem Bereich und auch Personen mit ausreichend Orthografie-Kenntnissen folgen hier nicht zwangsweise der Neuregelung. Auch wenn ich deiner Meinung bin, empfehle ich dir vor weiteren Umstellungen die zugehörigen Textmassen in den Diskussionen zu diesem Thema zu lesen. Des Weiteren würde ich dich bitten solche Umstellungen auch korrekt durchzuführen (wenn sie denn sein müssen). Damit meine ich
- Die von dir als falsch bezeichnete Variante auch vollständig aus dem Artikel zu entfernen und nicht nur teilweise. Andernfalls (wie in diesem Fall hier) sind dann alle 3 Varianten im Text vorhanden, was totaler Mist ist.
- Die Angabe von weiteren Schreibweisen ist mit Apostroph oder Bindestrichen ist nicht günstig, da komplett überflüssig. Die Wiki ist kein Wörterbuch.
- Im Text sollte einheitlich die Schreibweise des Lemma genutzt werden.
- --Cepheiden 09:35, 12. Feb. 2011 (CET)
12 - 18 - 24 Monate
[Quelltext bearbeiten]Hatte Moore in seinem Originaltext von April 65 nicht von 24 Monate gesprochen? Die 18 Monate stammen nicht von Moore sondern waren die damalige tatsaechliche Veraenderung. Die 18 Monate wurden immer ihm zugeschrieben. " ... The complexity for minimum component costs has increased at a rate of roughly a factor of two per year (see graph on next page). ..." [Quelle: ftp://download.intel.com/museum/Moores_Law/Articles-Press_Releases/Gordon_Moore_1965_Article.pdf; Seite 2; Stand 02.09.2006]
[ENDE]
(nicht signierter Beitrag von 129.187.26.227 (Diskussion | Beiträge) 09:23, 2. Sep. 2006 (CEST))
-- MERGE --
Nach meiner Erinnerung sind es nicht 24 sondern 18 Monate. Vielleicht hat sich der exponentielle Anstieg aber auch bereits verlangsamt. Offensichtlich ist, dass der Anstieg nicht über mehrere Jahrhunderte in dieser Form weiter gehen kann. Irgendwann werden physikalische Grenzen erreicht und der Nutzen immer schnellerer Rechner wird zunehmend fragwürdig. (nicht signierter Beitrag von Fsswsb (Diskussion | Beiträge) 13:33, 7. Apr. 2006 (CEST))
Vergisst nicht die Quantencomputer.(nicht signierter Beitrag von 213.39.128.72 (Diskussion | Beiträge) 20:43, 14. Jun. 2006 (CEST))
Nein, definitiv nicht 18 Monate. Im Originaltext stehen 2 Jahre, nur das sagt das Gesetz aus.
Wieso mir da jetzt einfach jemand die (belegte!) Erklärung gelöscht hat und "je nach Quelle 18 oder 24 Monate" hinschreibt ist mir schleierhaft. Auf Kindergarten habe ich aber keine Lust, wenn die deutsche Wikipedia unbedingt falsche Tatsachen darstellen soll, soll es so sein.
Weiterhin möchte ich folgendes zu bedenken geben: beim Gesetz geht um eine Abschätzung, die Moore vorgenommen hat, nicht etwa darum, ob sich die Zahlen reell bewährt, oder in ihren Werten mittlerweile nach oben oder unten geändert haben. Das hat damit überhaupt nichts zu tun.
Ich sage damit nicht, dass man sich mit dieser Fragestellung nicht auseinandersetzen kann, es muss m.M.n. jedoch strikt vom eigentlichen Gesetz getrennt werden und entsprechendes "Kuddelmuddel" vermieden werden. In die Beschreibung gehören lediglich die Fakten, die das Gesetz besagt (und meines Erachtens auch nicht besagt, um eine Trennung zur falschen Aussage, es wären 18 Monate beschrieben worden vorzunehmen).
Ein Vergleich mit der Realität kann und sollte weiter unten im Artikel selbst geführt werden (dann aber auch entsprechend gekennzeichnet, ich dreh mich gerade im Kreis). --85.183.67.131 09:57, 14. Sep. 2010 (CEST)
kurzweil und singularität
[Quelltext bearbeiten]im teil zu kurzweil und singularität: exponentiell oder doppelt exponentiell? im kleineren masstab ist die steigung exponentiell. im grossen masstab aber doppelt exponentiell. reale kurven sind i.a. nie 100%ig an irgend welche formeln angepasst. diese sind immer nur naeherungen. die exponentiell passt gut fuer kurze (die letzten 20 jahre) die doppelt exponentielle fuer lange perioden (die letzten 100 jahre). ich füge daher den abasatz mit "doppelt exponentiell" wieder ein. Mond 17:15, 21. Jul 2004 (CEST)
- Ok, so macht das auch Sinn.--otaku 10:54, 22. Jul 2004 (CEST)
Kurzweil
[Quelltext bearbeiten]Was heißt denn, Computer erreichen "die Leistungsfähigkeit des menschlichen Gehirns"? Wie kann man denn die Leistungsfähigkeit von Computer und Gehirnen vergleichen? Und was soll der Satz "Kurzweil's Thesen erscheinen auf den ersten Blick wie Science-Fiction, doch sind gut argumentiert."? Solche Thesen können nicht gut argumentiert sein, siehe Bemerkung zum ersten Satz. Es ist umstritten, ob ein Computer in der jetzigen Technologie überhaupt in der Lage ist, menschliche Denkprozesse zu vollziehen. Dieser Kurzweil-Absatz gehört hier so nicht hin. (nicht signierter Beitrag von 80.144.109.95 (Diskussion | Beiträge) 16:31, 27. Aug. 2004 (CEST))
- kurzweils thesen sind eine verallgemeinerung des mooreschen gesetzes und passen daher sehr wohl hier her. kurweil erwartet nicht eine verlangsamung sondern eine beschleunigung der entwicklung und argumentiert dies auch gut. Was heißt denn, Computer erreichen "die Leistungsfähigkeit des menschlichen Gehirns"? heisst: vergleichbare oder hoehere generelle intelligenz. voraussetzung ist wohl eine vergleichbare rechenleistung. die rechenleistung des gehirns ist auf etwa 20000 TFlop/s beschraenkt - vermutlich eher weniger. ich werde den singularitaetslink updaten damit er direkt auf Singularität (Technologie) zeigt. lg Mond 22:14, 27. Aug 2004 (CEST)
- Für den unbedarften Leser, also denjenigen, der keine Ahnung vom Moorschen Gesetz oder Kurzweil Thesen hat, ist dieser Absatz zu "radikal" formuliert. Sätze, wie "... und argumentiert dies auch gut" und Punkt, klingen nach Boulevardpresse und nicht nach objektiver Darstellung. Der Absatz ist meiner Meinung nach zu kurz, wahrscheinlich sollte er die Thematik mal eben anreissen, dafür spricht er aber in seiner Kürze zu viel an (Singularität, Rechenleistungsvergleich etc). (nicht signierter Beitrag von 80.144.107.124 (Diskussion | Beiträge) 12:16, 29. Aug. 2004 (CEST))
- stimmt. umformulierung wuerde dem absatz nicht schaden. ich werds mal versuchen. andererseits: wenn man menschen erklaert dass wir in etwas 20 jahren maschinen haben die intelligenter sind als menschen reagiern viele mit skepsis... Mond 13:08, 29. Aug 2004 (CEST)
- so macht das schon einen besseren (neutraleren) Eindruck, finde ich. (nicht signierter Beitrag von 80.144.107.124 (Diskussion | Beiträge) 16:00, 29. Aug. 2004 (CEST))
- stimmt. umformulierung wuerde dem absatz nicht schaden. ich werds mal versuchen. andererseits: wenn man menschen erklaert dass wir in etwas 20 jahren maschinen haben die intelligenter sind als menschen reagiern viele mit skepsis... Mond 13:08, 29. Aug 2004 (CEST)
- Ich dagegen bin immer noch nicht zufrieden. Ich habe Kurzweil (und auch Hofstaedter, der dies Thema wesentlich erschöpfender behandelt) gelesen. Die Diskussion im Lemma ist zu simplifizierend. Zuerst wird von der Rechenleistung geredet und dabei eine eklatante Falschaussage gemacht. Die Rechenleistung jedes PCs ist bereits seit Jahren der Rechenleistung des Gehirns um Größenordnungen überlegen. Dann wird von Intelligenz geredet, ohne darauf einzugehen daß bis heute niemand eine Formel gefunden hat, wie Intelligenz auf Rechenleistung reduziert werden kann. Also kann auch niemand aus quantitativen Daten eine Voraussage errechnen, wann ein Computer dem Gehirn vergleichbare Funktionalität erreichen wird. Ja, Kurzweil argumentiert sehr eingängig. Aber es gibt jede Menge genauso ernstzunehmender Autoren, die ihm dezidiert widersprechen.
- Fazit: Kurzweil erwähnen, aber nur als eine extrem einseitige Position, der andere entgegenstehen. (nicht signierter Beitrag von Spauli (Diskussion | Beiträge) 13:14, 5. Sep. 2004 (CEST))
- nein, nein, nein. also kurweil schaetzt die rechenleisutng des gehirns wesentlich hoeher ein als die von momentan exesitierenden computern: 100G neuronen. haben im durchschnitt etwa 1000 verbindungen zu nachbarneuronen. (100T verbindungen mit gewichten) feuern etwa 200 mal pro sekunde => 20000 TFlops. der P4 den du um 300 euro beim computertroedler um die ecke kaufen kannst hat etwa 2GFlops peak performance... wir haben also 10^7 an leistungsunterschied zu gunsten des gehirns. noch. bei einer jaehrlichen verdopplong isnd das nur etwa 23 jahre. soweit zur nackten rechenleistung. es ist durchaus nicht ausgechlossen dass menschliche inteligenz auch mit weniger rechenleistung auskommt. eine zehnerpotenz spielt dabei wenig rolle: sind nur etwa 3 jahre bei jaehrlicher verdopplung. ob menschliche inteligenz erreicht werden kann ist natuerlich eine frage der software: ABER: jehr mehr nackte rechenleisung vorhanden desto weniger aufwand in software...... Mond 02:54, 6. Sep 2004 (CEST)
- Es ist keineswegs nur eine Frage der Software, ob menschliche "Intelligenz" erreicht werden kann. Die Funktionsweise des menschlichen Hirns ist nicht vollständig genug geklärt, um solch eine Aussage treffen zu können. Selbst "Mehr Rechenleistung -> weniger Aufwand" stimmt prinzipiell ja schon, so ein Satz erweckt aber den Eindruck, dass mehr Rechenleistung allein schon ermöglicht komplexere Software zu schreiben. Dann wäre das Foschungsgebiet des Software Engineering momentan nicht solch ein großes. Eine Statistik, die die Rechenleistung im Verhältnis zur Softwarekomplexität (wie immer sie messbar wäre, vielleicht in Lines of Code) der letzten Jahre setzt würde ich gerne mal sehen. Die Komplexität dürfte der Rechenleistung hinterherhinken. Selbst wenn sie proportional sein würden, wäre es bedauerlich. (nicht signierter Beitrag von 80.144.124.133 (Diskussion | Beiträge) 19:14, 17. Sep. 2004 (CEST))
- Die Rechenleistung von P4-CPUs geht bis 7,6 GFlops (2xTaktfrequenz, Takt geht bis 3,8GHz ohne übertakten). Allerdings sagt die Peak-Lesitung wenig über die tatsächliche Leistungsfähigkeit aus. z.B. der Cell hat 73GFlops, ist aber nicht mal annnähernd 10x so schnell wie ein P4. Und ein Core 2 Duo hat glaub ich wegen der niedrigeren Taktfrequenz sogar einen niedrigeren Peak-Wert, hat aber in Real-World-Anwendungen deutlich mehr Flops als ein P4.
- aber wenn man Supercomputer anschaut, dann fehlt nurmehr ein faktor von ca. 1000 zum menschlichen gehirn, wenn man sich den Spitzenreiter anschaut... -MrBurns 14:28, 30. Mär. 2007 (CEST)
- Allein die Diskussion hier zeigt mir wieder, dass dieser Kurzweil-Text nix in diesem Artikel zu suchen hat. Ich habe Kurzweil nicht gelesen (werde es sicherlich auch nicht tun, nachdem ich einige Aussagen von ihm hier gelesen habe, die wieder mal ganz toll klingen aber nur zu belächeln sind und aus der Luft gegriffen klingen). Ich kann mich dem Fazit oben nur anschließen. (nicht signierter Beitrag von 80.144.124.133 (Diskussion | Beiträge) 19:02, 17. Sep. 2004 (CEST))
- die ueberlegungen von kurzweil und anderen sind eine erweiterung des moorschen gesetzes und sollten daher in jedem falle in dem artikel erwaehnt werden um fuer leser die sich einen ueberblick ueber den begriff machen wollen anknuepfungspunkte zu geben. insofern als kurzweils ueberlegungen antworten auf die frage geben ob moorsches law weiter gehen wird oder bald an eine grenze stoesst ist es jedenfalls auch direkt fuer den artikel relevant die details koennen dann eher ueber den link zur technologischen singularitaet verfolgt werden. die vorstellung dass computer in wenigen jahrzehnten intelligenter als menschen sein koennten klingt natuerlich fuer viele wie science-fiction ist aber, wenn der bestehende trend extrapoliert wird, eine durchaus nicht unwahrscheinliche hypothese... wenn die objektivitaet des artikels in frage gestellt werden soll dann wuerde ich das eher an obiger stelle tun wo aus 2 (in worten: 'zwei) datenpunkten folgerungen getroffen werden die sich in dieser form sicherlicht nicht ganz verallgermeinern lassen... lg Mond 16:14, 18. Sep 2004 (CEST)
- Ich denke, da fühlt sich jemand auf den Schlips getreten. Aus der Tabelle wird nicht gefolgert, sie ist ein Beispiel. Solche Beispiele zu finden sind nicht ganz einfach und man hat nicht unendlich viel Zeit. Wenn die Aussage nicht stimmen sollte, dann bitte entfernen. Wen es interessiert und die ct' liest, in der Ausgabe 20 vom 20.09.2004 auf Seite 19 ist ein hübsches Bild vom Montecito. Da fällt auf den ersten Blick der große braune reguläre Bereich auf, der mehr als die Hälfte des Chips ausmacht. Das ist der L3-Cache. Wenn man den momentanen Trend der Cachevergrößerung extrapoliert, naja, ich wills mir nicht vorstellen. Ich halte Kurzweils Thesen, in der Form wie sie im Artikel stehen, nicht für science-fiction sondern für überholt, wenn sie jemals aktuell und nicht einfach popularistisch waren. Ich bin mit dem C64er groß geworden und habe gesehen, wie gigantisch schnell alles gewachsen ist. Aber solange jeder Anfänger mit ein paar Spielen jeden Computergegner im GO schlagen kann, möchte ich nicht an "Computer-Intelligenz" glauben. Es ist wichtig, dass hier solche Diskussionen geführt werden. Das macht wikipedia zu einer weitaus wertvolleren Wissensquelle als jede andere Enzyklopädie. (nicht signierter Beitrag von 217.80.123.51 (Diskussion | Beiträge) 12:30, 27. Sep. 2004 (CEST))
- Ich finde den Artikel auf der englischen Wikipedia weitaus besser. Dort werden die Futurologen nur kurz erwähnt (nicht mal Kurzweil) und die Softwareentwicklung gegenüber der Hardwareentwicklung angeschnitten. Außerdem scheint Kurzweil seine Erwartungen mal wieder etwas verschoben zu haben: Interview mit Kurzweil. Im Netz habe ich einige Gegenartikel zu Kurzweils Argumenten gefunden. Dort werden Kurzweils Behauptungen über die Leistungfähigkeit des Gehirns widerlegt, leider habe ich keinen Link mehr. Irgendjemand? Ich frage mich allen Ernstes, ob es nicht etwas unseriös ist Kurzweil fast die Hälfte des Artikels zu spendieren... (nicht signierter Beitrag von 217.80.119.111 (Diskussion | Beiträge) 00:24, 18. Okt. 2004 (CEST))
- in dem zitierten artikel finde ich keine verschiebung. kurzweil geht in seinem artikel durchaus detaliert auf die einwende von kritern ein. im uebrigen ist es nicht nur kurzweil der diese these vertritt. was die ausgewogenheit betrifft: wuerde es durchaus ok finden wenn die argumente die dafuer sprechen dass das exponentielle wachstum an eine grenze stoesst und die die dagegen sprechen bzw sogar eine beschleunigung des wachtums erwarten etwa gleichen raum in dem artikel bekommen.. lg mond Mond 20:17, 18. Okt 2004 (CEST)
Leistungsfähigkeit pro 1000$
[Quelltext bearbeiten]Dasss sich die Leistungsfähigkeit pro 1000$ doppelt exponentiell erhöht stimmt seit ca. 2003 nicht mehr. Im text steht, dass sich die Leistungsfähigkeit pro 1000$ jährlich verdoppelt.
Das würde bedeuten, dass ein neuer Computer um 1000$ 16x leistungsfähiger ist als ein 4 Jahre alter Computer um 1000$. Vor 4 Jahren (April 2003) hab ich mir ein System mit folgenden Hauptkomponenten um ca. 1000€ zusammengestellt: Athlon XP 2700+, 512MB DDR, GeForce 4 Ti 4600 mit 128MB. Derzeit würde man um den Preis ca. folgendes kriegen: Core 2 Duo 6300, 2GB DDR2, GeForce 8800 GTS mit 256MB.
Ich glaub nicht, dass das zweite System auch nur annähernd 16x so leistungsfähig ist wie das erste.
Und 1000$ in Amerika entsprechen auch in etwa 1000€ in Europa, wiel Hardware in Europa fast um so vieles teurer ist als was der Dollarkurs ausmacht. Und außerdem hat sich der $-Kurs in den letzten 4 Jahren kaum geändert. Meistens sind in den USA, die CPU-Preise pro 1000 Stück wenn mans direkt beim hersteller bestellt in $ in etwa so hoch wie die Endpreise in € in Europa, wobei die Gewinnspanne für die Händler und Großhändler eher gering ist. (nicht signierter Beitrag von MrBurns (Diskussion | Beiträge) 14:17, 30. Mär. 2007 (CEST))
Ich denke, wir nähern uns schon den Grenzen von dem, was mit der aktuellen Halbleitertechnik möglich ist und deshalb wird diese Entwicklung wieder langsamer. -MrBurns 14:11, 30. Mär. 2007 (CEST)
- Ich habe mal sicherheitshalber "Stand 2003" dazugeschrieben, weil ja noch keiner geantwortet hat. --MrBurns 00:36, 18. Feb. 2009 (CET)
Noch gültig?
[Quelltext bearbeiten]Hier eine Rechercheanfrage: Ist dieses Gesetz noch gültig? Bereits vor mehr als zwei Jahren wurde ein Punkt erreicht, ab dem Schaltkreise wegen Nanoeffekten nicht weiter verkleinert werden können. Seitdem stagniert die Prozessorentwicklung (sieht man einmal von den Bemühungen am Quantenrechner ab). Die einzige wesentliche Änderung in dieser Zeit war der Übergang zu kommerziellen Mehrprozessorsystemen, bei denen mehrere Prozessoren miteinander verschaltet werden, um durch parallele Abarbeitung mehr Rechenleistung zu bringen. Man beachte insbesondere, dass die Taktung der im Handel erhältlichen Prozessoren seit mehreren Monaten nicht mehr ansteigt. Meine Vermutung daher: Das Gesetz ist gebrochen, die maximal mögliche Transistorendichte in integrierten Schaltkreisen ist erreicht. --Bitbert -?- 08:32, 19. Apr. 2007 (CEST)
- In welchem Bereich wurde der Punkt erreicht? In Labor oder in der Produktion? Und welche Nanoeffekte meinst du im Detail? Die Taktfrequenz ist für sich betrachtet kein Maß für die Geschwindigkeit eine CPU. Das musste sogar Intel zugeben, obwohl gerade deren Werbestartegie vor ein paar Jahren genau das propagierte. Die Halbleiterhersteller schaffen es seit Jahren das moorsche Gesetz mehr oder weniger aufrecht zu erhalten. Erst war es die Lithographi die in den 1990ern das Aus bringen sollte, jetzt sollen es Tunneleffekte usw. sein. Meiner Meinung nach schaffen es die Hersteller auch die nächsten 10 Jahre noch die bisherigen Grenzen zu überwinden. Mich würde auch mal interessieren was du mit "Seitdem stagniert die Prozessorentwicklung" genau meinst. Meinst du die Halbleiterherstellung oder meinst du die schaltungstechnische Entwicklung? [1]--Cepheiden 09:03, 19. Apr. 2007 (CEST)
- Grenzen, die durch Tunneleffekt oder andere Auswirkungen der Unschärferelaton erzeugt werden, können prinzipiell nicht überwunden werden. Es gibt also sehr wohl so etwas wie eine natürlich Grenze der Miniaturisierung, die nicht überschritten werden kann. -MrBurns 09:35, 19. Apr. 2007 (CEST)
- Nicht überwunden, aber umgangen. So wird beispielsweise SiO2 als Gatedielektrikum durch high-k-Materialien ersetzt, somit können wieder größere Dielektrikadicken genommen werdenund der Einfluß von Tunnelleckströmen sinkt. Außerdem wird auch viel von schaltungstechnischer Seite gemacht. Das moorsche Gesetzt bezieht sich ja nicht nur explizit auf die Strukturgröße. --Cepheiden 13:24, 19. Apr. 2007 (CEST)
- Das kann man aber auch nicht endlos fortsetzten: wenn die Dieelktrikaschicht zu dick wird, dann werden die Strukturen insgesamt irgendwann einmal größer statt kleiner. Und auch die höhe der Energiebarriere kann man nicht endlos erhöhen. Dabei muß man nicht nur die prinzipiellen Grenzen der Energiedichte durch die Planck-Skala berücksichtigen (=Planck-Energie/Planck-Länge³), sondern auch, dass es keine Materialien mit beliebig hohen Energiebarrieren geben kann, was zu viel niedrigerne Grenzen führt als die Planck-Skala. -MrBurns 15:44, 2. Mai 2007 (CEST)
- Nicht überwunden, aber umgangen. So wird beispielsweise SiO2 als Gatedielektrikum durch high-k-Materialien ersetzt, somit können wieder größere Dielektrikadicken genommen werdenund der Einfluß von Tunnelleckströmen sinkt. Außerdem wird auch viel von schaltungstechnischer Seite gemacht. Das moorsche Gesetzt bezieht sich ja nicht nur explizit auf die Strukturgröße. --Cepheiden 13:24, 19. Apr. 2007 (CEST)
- Grenzen, die durch Tunneleffekt oder andere Auswirkungen der Unschärferelaton erzeugt werden, können prinzipiell nicht überwunden werden. Es gibt also sehr wohl so etwas wie eine natürlich Grenze der Miniaturisierung, die nicht überschritten werden kann. -MrBurns 09:35, 19. Apr. 2007 (CEST)
Ich habe keine gültigen Aussagen gemacht, sondern meine Sicht als Halbleiterkonsument geschildert. Sprechen wir einmal von den Angaben im Artikel. Die Grafik oben endet mit Intels Itanium 2 im Jahre 2004. 2004 ist nahezu drei Jahre her, eine halbe Ewigkeit im Business und fast zwei Verdopplungsschritte nach Moore. Hat sich die Verdopplung in dieser Zeit bewahrheitet? Die Grafik bei Intel, auf die Cepheidon verweist, legt dies mit dem letzten Schritt vom Itanium 2 auf den Dual-Core Itanium 2 nahe. Doch halt: Statt die Transistorendichte zu erhöhen hat Intel einfach den Chip verdoppelt. Leistungssteigerung durch Prozessorvervielfachung. Moores Gesetz? Für mein Verständnis nicht. In der Produktion wurde Moores Gesetz damit bereits gebrochen, wenn auch nicht im Labor. --Bitbert -?- 11:48, 19. Apr. 2007 (CEST)
- Ja es wird viel gemogelt bei den Herstellern wie überall. Es ist ein Zielwert den die Industrie gern erreichen möchte. Nur nebenbei, die 1975 vorrausgesagte Entwicklung stimmte schon 1980 nicht mehr wirklich (Die Transitoranzahl lag ca. eine Größenordnung drunter). Die Transistordichte wurde noch nie wirklich verdoppelt und ist auch nicht DAS Kriterium in Moors Gesetz. Vergleicht man die Die-Größen so ist der 486er gut 3mal so groß wie der 386er, der Pentium gut 2mal so groß wie der 486er. Eine Reduktion gabs dann beim Übergang von Pentium zu Pentium II. Und viel mehr. In Moors Gesetz fallen halt viele Parameter und nicht nur einer. Für einen geschichtlichen Rückblick taugt diese Präsentation evtl ganz gut [2]. Ich bin kein Verfechter der "Gesetzes", fand es eh immer Schwachsinn, aber der Trend wird halt von der Industrie aufrechterhalten. Vermeidliche Endpunkte der Entwicklung wurden bisher immer irgendwie umgangen bzw. überwunden. Dies wird auch in naher Zukunft so sein, wenn auch evtl etwas verlangsamt.--Cepheiden 13:24, 19. Apr. 2007 (CEST)
- Ich habe mir Moores verlinkten Artikel [3] durchgelesen. Moore macht dort folgende Kernaussage: "The complexity for minimum component costs has increased at a rate of roughly a factor of two per year …", „Die Komplexität bei minimalen Komponentenkosten steigt um einen Faktor von etwa 2 pro Jahr …“ Das Ganze unterstützt er durch ein Diagramm, in dem der die Komponentenanzahl pro integrierter Funktion über die Jahre aufträgt. Diese Aussage ist sehr präzise und unterscheidet sich grundlegend von dem, was im Artikel steht:
- Von Transistoren ist nirgends die Rede, nur von Komponenten.
- Die Aussage bezieht sich ausschließlich auf das Kostenoptimum, also für diejenige Komponentenanzahl, für die die Herstellungskosten pro Komponente minimal sind.
- Der Begriff Komplexität ist klar definiert als Komponentenanzahl pro integriertem Schaltkreis.
- Der Artikel bedarf einer gründlichen Überarbeitung. --Bitbert -?- 15:17, 19. Apr. 2007 (CEST)
- Kann sein, aber was sind für dich die Komponenten in einem integriertem Schaltkreis? --Cepheiden 22:09, 19. Apr. 2007 (CEST)
- Ich habe keine Ahnung, was sich Moore unter diesem Begriff vorgestellt hat. Möglicherweise meinte er tatsächlich Transistoren, aber das ist eben zu überprüfen und zu belegen. Wichtiger ist es, das Kostenoptimum einzubauen und die Komplexität klar zu definieren. Moores Angaben sind weit weniger wischiwaschi als ich vermutet habe. Es ist keineswegs so, dass es eine Vielzahl an Parametern gibt, an denen man herumdrehen könnte, die Kostenfunktion zwängt das alles in ein enges Korsett. Intel möchte den Itanium 2 anführen? Dann muss Intel erst einmal zeigen, dass dessen Komponentenanzahl im Kostenoptimum liegt. Ist das nicht der Fall, darf der Prozessor zur Belegung von Moores Gesetz überhaupt nicht angeführt werden. Oben fragst du, ob Labor oder Produktion gemeint sind. Moores Gesetz berücksichtigt beide gleichermaßen, wichtig sind nur die Produktionskosten; die werden allerdings mit an Sicherheit grenzender Wahrscheinlichkeit in der Massenproduktion weit geringer als im Forschungsstadium sein. Es geht bei der Sache eben um die Möglichkeit der billigen Herstellung, nicht um tatsächlich hergestellte Produkte. --Bitbert -?- 09:41, 20. Apr. 2007 (CEST)
- Das mit der Produktion oder den Laborschaltkreisen bezog sich nur auf die Stagnation in der Entwicklung die du als allererstes anführtest. Ansonsten geb ich dir Recht. Allerdings sollte man beachten, dass diese Informationen nicht so einfach zu beschaffen sind. Zumal das moorsche Gesetz im Allgemeinen nicht so streng ausgelegt wird, wie Moore das evtl. damals sagte. --Cepheiden 12:22, 20. Apr. 2007 (CEST)
- Was die Herren der Chipindustrie da „im Allgemeinen“ so alles vermauscheln ist mir relativ wurst. Fakt ist, das Moore sehr klare Angaben gemacht hat, die sich im Artikel wiederfinden müssen. Dass das Kostenoptimum alles andere als leicht zu ermitteln ist, ist klar; immerhin müssten dazu sämtliche existierenden Produktionsmaschinen auf ihre Kosteneffizienz hin ausgewertet werden. Als Moore sein Gesetz formulierte, sah die Welt noch anders aus. Damals war die Chipindustrie stark lokalisiert und Moore saß mit Überblick über alle Verfahren mitten in ihrem Herzen. Wenn die Angaben heute lasch und unpräzise – sprich: falsch – ermittelt werden, taugt Moores Gesetz wissenschaftlich keinen Schuss Pulver. Der Leser hat ein Recht darauf, auch das zu erfahren. --Bitbert -?- 16:38, 20. Apr. 2007 (CEST)
- Das mit der Produktion oder den Laborschaltkreisen bezog sich nur auf die Stagnation in der Entwicklung die du als allererstes anführtest. Ansonsten geb ich dir Recht. Allerdings sollte man beachten, dass diese Informationen nicht so einfach zu beschaffen sind. Zumal das moorsche Gesetz im Allgemeinen nicht so streng ausgelegt wird, wie Moore das evtl. damals sagte. --Cepheiden 12:22, 20. Apr. 2007 (CEST)
- Ich habe keine Ahnung, was sich Moore unter diesem Begriff vorgestellt hat. Möglicherweise meinte er tatsächlich Transistoren, aber das ist eben zu überprüfen und zu belegen. Wichtiger ist es, das Kostenoptimum einzubauen und die Komplexität klar zu definieren. Moores Angaben sind weit weniger wischiwaschi als ich vermutet habe. Es ist keineswegs so, dass es eine Vielzahl an Parametern gibt, an denen man herumdrehen könnte, die Kostenfunktion zwängt das alles in ein enges Korsett. Intel möchte den Itanium 2 anführen? Dann muss Intel erst einmal zeigen, dass dessen Komponentenanzahl im Kostenoptimum liegt. Ist das nicht der Fall, darf der Prozessor zur Belegung von Moores Gesetz überhaupt nicht angeführt werden. Oben fragst du, ob Labor oder Produktion gemeint sind. Moores Gesetz berücksichtigt beide gleichermaßen, wichtig sind nur die Produktionskosten; die werden allerdings mit an Sicherheit grenzender Wahrscheinlichkeit in der Massenproduktion weit geringer als im Forschungsstadium sein. Es geht bei der Sache eben um die Möglichkeit der billigen Herstellung, nicht um tatsächlich hergestellte Produkte. --Bitbert -?- 09:41, 20. Apr. 2007 (CEST)
- Kann sein, aber was sind für dich die Komponenten in einem integriertem Schaltkreis? --Cepheiden 22:09, 19. Apr. 2007 (CEST)
- Ich habe mir Moores verlinkten Artikel [3] durchgelesen. Moore macht dort folgende Kernaussage: "The complexity for minimum component costs has increased at a rate of roughly a factor of two per year …", „Die Komplexität bei minimalen Komponentenkosten steigt um einen Faktor von etwa 2 pro Jahr …“ Das Ganze unterstützt er durch ein Diagramm, in dem der die Komponentenanzahl pro integrierter Funktion über die Jahre aufträgt. Diese Aussage ist sehr präzise und unterscheidet sich grundlegend von dem, was im Artikel steht:
Die Referenz Nr. 6 ist ein toter Link
[Quelltext bearbeiten]-- 80.226.218.225 23:55, 9. Jun. 2010 (CEST)
- fixed, danke für den Hinweis. --Cepheiden 00:05, 10. Jun. 2010 (CEST)
- Siehe Kommentar. Dieser Abschnitt kann archiviert werden. 17387349L8764 (Diskussion) 21:53, 7. Dez. 2022 (CET)
- Siehe Kommentar.
Die Referenz Nr. 2 erfordert ein Login
[Quelltext bearbeiten]G. E. Moore: Cramming more components onto integrated circuits. In: Electronics. Band 38, Nr. 8, 1965, S. 114–117 (ftp://download.intel.com/sites/channel/museum/Moores_Law/Articles-Press_Releases/Gordon_Moore_1965_Article.pdf PDF). --Manorainjan 08:55, 9. Sep. 2017 (CEST)
- Danke, wurde aktualisiert. Das Original ist auch bei IEEE (nicht-OA). Gruß Dieser Abschnitt kann archiviert werden. 17387349L8764 (Diskussion) 21:52, 7. Dez. 2022 (CET)
Artikel veraltet
[Quelltext bearbeiten]Da werden noch Pentium III-Prozessoren verglichen. Die Grafik, die das Morsche Gesetz belgen soll, reicht gerade mal bis 2000. 10 Jahre ist in der Computerbranche eine "Ewigkeit". --Juri S. 20:13, 21. Dez. 2010 (CET)
- Schon, aber mir fehlen die richtigen Zitationen und ggf. eine andere Darstellung, anstatt SPEC, bzw. es als Beispiel deutlich machen. Die PIIIs sind m. E. im Vergleich zu allem, was heute im Feld ist, noch näher am Moore dran. MfG --17387349L8764 (Diskussion) 21:37, 7. Dez. 2022 (CET)
Mooresches_Gesetz#Technische_Grenzen Strömungssimulation entfernen
[Quelltext bearbeiten]Im Artikel Mooresches_Gesetz#Technische_Grenzen der letzte Absatz sollte noch mehr überarbeitet werden. Die Strömungssimulation ist nur ein sehr spezieller Anwendungsfall, außerdem ist dieser Text inzwischen schon wieder sehr alt. Ich denke nicht, dass er hier aussagekräftig ist. Daher entfernen oder kürzen. 131.188.147.200 18:51, 24. Mär. 2011 (CET)
- Kommentar aus 2011. Der Textabschnitt wurde nachgearbeitet und mit einem Artikel aus 2014 belegt. Das ganze läuft auf den VNA Hinaus. Die Gültigkeit oder Entwicklung dazu heute wäre interessant. Supercomputer und Simulationen unterliegen ihren eigenen Benchmarks, siehe TOP500. MfG --17387349L8764 (Diskussion) 21:43, 7. Dez. 2022 (CET)
Wiedersprüchliche Aussagen
[Quelltext bearbeiten]Ich habe wenig Ahung vom Fach aber beim Lesen des Artikels sind mit diese beiden Sätze aufgefallen: "Moores damaliger Intel-Kollege David House brachte 18 Monate als Abschätzung ins Spiel," und "In den Medien ist bis heute meist von einer Verdoppelung der Integrationsdichte alle 18 Monate die Rede; woher diese Zahl stammt, ist jedoch ungewiss." Eine der beiden Aussagen ist falsch. Bei der Ersten ist als Quelle ein Interview mit Moore selbst angegeben für die Zweite gibt es keine. Solange bis jemand die Glaubwürdigkeit des Interviews widerlegt, nehme ich den letzten Nebensatz mal raus. Streffing 19:27, 9. Apr. 2011 (CEST)
Frage zum Abschnitt "Schreibweise"
[Quelltext bearbeiten]ich bin schüler der 12. klasse und beschäftige mich in meiner seminararbeit über das thema "leistungssteigerung von pc-prozessoren". der schwerpunkt der arbeit liegt beim mooreschen gesetz. bei diesem wiki-artikel stoße ich im abschnitt "Schreibweise" auf die formel K(t) = K0 · exp(λ · t) und λ = ln(2) / T2.
- diese 2 formeln finde ich nirgendwoanders im internet.
- versteh ich diese formel nicht ganz. lasst es mich erklären:
wenn ich doch λ = ln(2) / T2 in K(t) = K0 · exp(λ · t) einsetze,so eliminieren sich doch e und ln, oder nicht? dann kommt da doch eine lineare funktion raus in form von K(t) = (2/T2)*t und keine exponentielle funktion, wie es ja eig. sein sollte.
- 3. nächster punkt wäre der begriff "Komplexität". was meint komplexität genau? welche größe ist es?
ich hoffe jmd kann mir weiterhelfen. bin für jede hilfreiche antwort dankbar! --Noswearld 15:58, 30.Aug.2011 (CET)
Redundanz innerhalb eines Artikels
[Quelltext bearbeiten]Der Abschnitt "Geschichte" wiederholt vieles, was schon in der Einleitung steht. Einer der beiden Abschnitte sollte dementsprechend gekürzt werden.--Polis Tyrol (Diskussion) 13:12, 6. Jan. 2014 (CET)
Lass' Law (Weitere Rezeption)
[Quelltext bearbeiten]ist m. E. Theoriefindung. Gruß --17387349L8764 (Diskussion) 21:34, 7. Dez. 2022 (CET)
Bezug auch zur biologischen DNA legbar
[Quelltext bearbeiten]Ich habe einen Prof. in einem Podcast sagen hören, dass sich das Mooresche Gesetz auch in Kausalität zur Datenmenge der menschenlichen DNA errechnen lässt. Es würde laut ersten Berechnungen Grundsätze unserer bekannten Evolutionstheorie entkraften und große neue Schatten werfen. In diesem Thema bin ich nicht bewandert und würde mich freuen wenn jemand meinen Durst stillt --2003:C1:8F41:D700:48CC:6B3E:CF36:28A5 19:49, 30. Okt. 2024 (CET)