Analysis
Die Analysis [ανάλυσις análysis ‚Auflösung‘, ἀναλύειν analýein ‚auflösen‘) ist ein Teilgebiet der Mathematik. Als eigenständiges Teilgebiet der Mathematik existiert die Analysis seit Leonhard Euler (18. Jahrhundert). Seither ist sie die Mathematik der Natur- und Ingenieurwissenschaften.
] (Ihre Grundlagen wurden im 17. Jahrhundert von Gottfried Wilhelm Leibniz und Isaac Newton als Infinitesimalrechnung unabhängig voneinander entwickelt. Infinitesimalrechnung ist die mathematische Untersuchung kontinuierlicher Veränderungen, so wie Geometrie die Untersuchung der Form und Algebra die Untersuchung der Verallgemeinerung arithmetischer Operationen ist.
Zentrale Begriffe der Analysis sind die des Grenzwerts, der Folge, der Reihe sowie in besonderem Maße der Begriff der Funktion. Die Untersuchung von reellen und komplexen Funktionen hinsichtlich Stetigkeit, Differenzierbarkeit und Integrierbarkeit zählt zu den Hauptgegenständen der Analysis. Grundlegend für die gesamte Analysis sind die beiden Körper (der Körper der reellen Zahlen) und (der Körper der komplexen Zahlen) mitsamt deren geometrischen, arithmetischen, algebraischen und topologischen Eigenschaften.
Teilgebiete
[Bearbeiten | Quelltext bearbeiten]Die Analysis hat sich zu einem sehr allgemeinen, nicht klar abgrenzbaren Oberbegriff für vielfältige Gebiete entwickelt. Neben der Differential- und Integralrechnung umfasst die Analysis weitere Gebiete, welche darauf aufbauen. Dazu gehören die Theorie der gewöhnlichen und partiellen Differentialgleichungen, die Variationsrechnung, die Vektoranalysis, die Maß- und Integrationstheorie und die Funktionalanalysis.[1]
Eine ihrer Wurzeln hat auch die Funktionentheorie in der Analysis. So kann die Frage, welche Funktionen die Cauchy-Riemannschen-Differentialgleichungen erfüllen, als Frage der Theorie partieller Differentialgleichungen verstanden werden.
Je nach Auffassung können auch die Gebiete der harmonischen Analysis, der Differentialgeometrie mit den Teilgebieten Differentialtopologie und Globale Analysis, der analytischen Zahlentheorie, der Nichtstandardanalysis, der Distributionentheorie und der mikrolokalen Analysis ganz oder in Teilen dazu gezählt werden.
Eindimensionale reelle Analysis
[Bearbeiten | Quelltext bearbeiten]Differentialrechnung
[Bearbeiten | Quelltext bearbeiten]Bei einer linearen Funktion bzw. einer Geraden
heißt m die Steigung und c der y-Achsen-Abschnitt oder Ordinatenabschnitt der Geraden. Hat man nur 2 Punkte und auf einer Geraden, so kann die Steigung berechnet werden durch
Bei nicht linearen Funktionen wie z. B. kann die Steigung so nicht mehr berechnet werden, da diese Kurven beschreiben und somit keine Geraden sind. Jedoch kann man an einen Punkt eine Tangente legen, die wieder eine Gerade darstellt. Die Frage ist nun, wie man die Steigung einer solchen Tangente an einer Stelle berechnen kann. Wählt man eine Stelle ganz nahe bei und legt eine Gerade durch die Punkte und , so ist die Steigung dieser Sekante nahezu die Steigung der Tangente. Die Steigung der Sekante ist (s. o.)
Diesen Quotienten nennt man den Differenzenquotienten oder mittlere Änderungsrate. Wenn wir nun die Stelle immer weiter an annähern, so erhalten wir per Differenzenquotient die Steigung der Tangente. Wir schreiben
und nennen dies die Ableitung oder den Differentialquotienten von f in . Der Ausdruck bedeutet, dass x immer weiter an angenähert wird, bzw. dass der Abstand zwischen x und beliebig klein wird. Wir sagen auch: „x geht gegen “. Die Bezeichnung steht für Limes.
- ist der Grenzwert des Differenzenquotienten.
Es gibt auch Fälle, in denen dieser Grenzwert nicht existiert. Deswegen hat man den Begriff Differenzierbarkeit eingeführt. Eine Funktion f heißt differenzierbar an der Stelle , wenn der Grenzwert existiert.
Integralrechnung
[Bearbeiten | Quelltext bearbeiten]Die Integralrechnung befasst sich anschaulich mit der Berechnung von Flächen unter Funktionsgraphen. Diese Fläche kann durch eine Summe von Teilflächen approximiert werden und geht im Grenzwert in das Integral über.
Die obige Folge konvergiert, falls f gewisse Bedingungen (wie z. B. Stetigkeit) erfüllt. Diese anschauliche Darstellung (Approximation mittels Ober- und Untersummen) entspricht dem sogenannten Riemann-Integral, das in der Schule gelehrt wird.
In der sogenannten Höheren Analysis werden darüber hinaus weitere Integralbegriffe, wie z. B. das Lebesgue-Integral betrachtet.
Hauptsatz der Integral- und Differentialrechnung
[Bearbeiten | Quelltext bearbeiten]Differentialrechnung und Integralrechnung verhalten sich nach dem Hauptsatz der Analysis in folgender Weise „invers“ zueinander.
Wenn eine auf einem kompakten Intervall stetige reelle Funktion ist, so gilt für :
und, falls zusätzlich auf gleichmäßig stetig differenzierbar ist,
Deshalb wird die Menge aller Stammfunktionen einer Funktion auch als unbestimmtes Integral bezeichnet und durch symbolisiert.
Mehrdimensionale reelle Analysis
[Bearbeiten | Quelltext bearbeiten]Viele Lehrbücher unterscheiden zwischen Analysis in einer und Analysis in mehreren Dimensionen. Diese Differenzierung berührt die grundlegenden Konzepte nicht, allerdings gibt es in mehreren Dimensionen eine größere mathematische Vielfalt. Die mehrdimensionale Analysis betrachtet Funktionen mehrerer reeller Variablen, die oft als ein Vektor beziehungsweise n-Tupel dargestellt werden.
Die Begriffe der Norm (als Verallgemeinerung des Betrags), der Konvergenz, der Stetigkeit und der Grenzwerte lassen sich einfach von einer in mehrere Dimensionen verallgemeinern.
Die Differentiation von Funktionen mehrerer Variablen unterscheidet sich von der eindimensionalen Differentiation. Wichtige Konzepte sind die Richtungs- und die partielle Ableitung, die Ableitungen in einer Richtung beziehungsweise in einer Variable sind. Der Satz von Schwarz stellt fest, wann partielle beziehungsweise Richtungsableitungen unterschiedlicher Richtungen vertauscht werden dürfen. Außerdem ist der Begriff der totalen Differentiation von Bedeutung. Dieser kann interpretiert werden als die lokale Anpassung einer linearen Abbildung an den Verlauf der mehrdimensionalen Funktion und ist das mehrdimensionale Analogon der (ein-dimensionalen) Ableitung. Der Satz von der impliziten Funktion über die lokale, eindeutige Auflösung impliziter Gleichungen ist eine wichtige Aussage der mehrdimensionalen Analysis und kann als eine Grundlage der Differentialgeometrie verstanden werden.
In der mehrdimensionalen Analysis gibt es unterschiedliche Integralbegriffe wie das Kurvenintegral, das Oberflächenintegral und das Raumintegral. Jedoch von einem abstrakteren Standpunkt aus der Vektoranalysis unterscheiden sich diese Begriffe nicht. Zum Lösen dieser Integrale sind der Transformationssatz als Verallgemeinerung der Substitutionsregel und der Satz von Fubini, welcher es erlaubt, Integrale über n-dimensionale Mengen in iterierte Integrale umzuwandeln, von besonderer Bedeutung. Auch die Integralsätze aus der Vektoranalysis von Gauß, Green und Stokes sind in der mehrdimensionalen Analysis von Bedeutung. Sie können als Verallgemeinerung des Hauptsatzes der Integral- und Differentialrechnung verstanden werden.
Funktionalanalysis
[Bearbeiten | Quelltext bearbeiten]Die Funktionalanalysis ist eines der wichtigsten Teilgebiete der Analysis. Die entscheidende Idee in der Entwicklung der Funktionalanalysis war die Entwicklung einer koordinaten- und dimensionsfreien Theorie. Dies brachte nicht nur einen formalen Gewinn, sondern ermöglichte auch die Untersuchung von Funktionen auf unendlichdimensionalen topologischen Vektorräumen.[1] Hierbei werden nicht nur die reelle Analysis und die Topologie miteinander verknüpft, sondern auch Methoden der Algebra spielen eine wichtige Rolle. Aus wichtigen Resultaten der Funktionalanalysis wie es beispielsweise der Satz von Fréchet-Riesz ist, lassen sich zentrale Methoden für die Theorie partieller Differentialgleichungen ableiten. Zudem ist die Funktionalanalysis, insbesondere mit der Spektraltheorie, der geeignete Rahmen zur mathematischen Formulierung der Quantenmechanik und auf ihr aufbauender Theorien.
Theorie der Differentialgleichungen
[Bearbeiten | Quelltext bearbeiten]Eine Differentialgleichung ist eine Gleichung, die eine unbekannte Funktion und Ableitungen von dieser enthält. Treten in der Gleichung nur gewöhnliche Ableitungen auf, so heißt die Differentialgleichung gewöhnlich. Ein Beispiel ist die Differentialgleichung
des harmonischen Oszillators. Von einer partiellen Differentialgleichung spricht man, wenn in der Differentialgleichung partielle Ableitungen auftreten. Ein Beispiel dieser Klasse ist die Laplace-Gleichung
- .
Ziel der Theorie der Differentialgleichungen ist es, Lösungen, Lösungsmethoden und andere Eigenschaften solcher Gleichungen zu finden. Für gewöhnliche Differentialgleichungen wurde eine umfassende Theorie entwickelt, mit der es möglich ist, zu gegebenen Gleichungen Lösungen anzugeben, insofern diese existieren. Da partielle Differentialgleichungen in ihrer Struktur komplizierter sind, gibt es weniger Theorie, die auf eine große Klasse von partiellen Differentialgleichungen angewandt werden kann. Daher untersucht man im Bereich der partiellen Differentialgleichungen meist nur einzelne oder kleinere Klassen von Gleichungen. Um Lösungen und Eigenschaften solcher Gleichungen zu finden, werden vor allem Methoden aus der Funktionalanalysis und auch aus der Distributionentheorie und der mikrolokalen Analysis eingesetzt. Allerdings gibt es viele partielle Differentialgleichungen, bei denen mit Hilfe dieser analytischen Methoden erst wenige Informationen über die Lösungsstruktur in Erfahrung gebracht werden konnten. Ein in der Physik wichtiges Beispiel einer solch komplexen partiellen Differentialgleichung ist das System der Navier-Stokes-Gleichungen. Für diese und für andere partielle Differentialgleichungen versucht man in der numerischen Mathematik näherungsweise Lösungen zu finden.
Funktionentheorie
[Bearbeiten | Quelltext bearbeiten]Im Gegensatz zur reellen Analysis, die sich nur mit Funktionen reeller Variablen befasst, werden in der Funktionentheorie (auch komplexe Analysis genannt) Funktionen komplexer Variablen untersucht. Die Funktionentheorie hat sich von der reellen Analysis mit eigenständigen Methoden und andersartigen Fragen abgesetzt. Jedoch werden einige Phänomene der reellen Analysis erst mit Hilfe der Funktionentheorie richtig verständlich. Das Übertragen von Fragen der reellen Analysis in die Funktionentheorie kann daher zu Vereinfachungen führen.[1]
Siehe auch
[Bearbeiten | Quelltext bearbeiten]Literatur
[Bearbeiten | Quelltext bearbeiten]- Herbert Amann, Joachim Escher: Analysis I. Birkhäuser, Basel 2006, ISBN 3-7643-7755-0.
- Richard Courant: Vorlesungen über Differential- und Integralrechnung. 2 Bände. Springer 1928, ISBN 3-540-02956-7.
- Jean Dieudonné: Foundations of Modern Analysis. Academic Press, U.S. 1968, ISBN 0-12-215530-0.
- Leonhard Euler: Einleitung in die Analysis des Unendlichen. Erster Teil der Introductio in Analysin Infinitorum. Springer Verlag, Berlin / Heidelberg / New York 1983, ISBN 3-540-12218-4 (Reprint der Ausgabe Berlin 1885).
- Otto Forster: Analysis 1. Vieweg, Wiesbaden 2004, ISBN 3-528-67224-2.
- Harro Heuser: Lehrbuch der Analysis. Teubner, Wiesbaden 2003, ISBN 3-519-62233-5.
- Stefan Hildebrandt: Analysis. Springer, Berlin 2002, ISBN 3-540-42838-0.
- Konrad Königsberger: Analysis. Band 1. Springer, Berlin 2004, ISBN 3-540-41282-4.
- Wladimir Smirnow: Lehrgang der höheren Mathematik. Harri Deutsch Verlag, ISBN 3-8171-1419-2.
- Walter Rudin: Reelle und komplexe Analysis. 2. verbesserte Auflage. Oldenbourg Wissenschaftsverlag, München 2009, ISBN 978-3-486-59186-6.
- Thomas Sonar: 3000 Jahre Analysis. Geschichte – Kulturen – Menschen. 2. Auflage. Springer, Berlin 2016. ISBN 978-3-662-48917-8.
- Wolfgang Walter: Analysis. Springer, Berlin 2004, ISBN 3-540-20388-5.
Weblinks
[Bearbeiten | Quelltext bearbeiten]- Eric W. Weisstein: Calculus. In: MathWorld (englisch).
- Topics on Calculus. In: PlanetMath. (englisch)
- The Calculus page Calculus.org, bei University of California, Davis – Ressourcen und enthält Links zu anderen Websites
Einzelnachweise
[Bearbeiten | Quelltext bearbeiten]- ↑ a b c D. Hoffmann: Analysis. In: Guido Walz (Hrsg.): Lexikon der Mathematik. 1. Auflage. Spektrum Akademischer Verlag, Mannheim/Heidelberg 2000, ISBN 3-8274-0439-8.