Diskussion:Polynominterpolation

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 7 Jahren von HerrHartmuth in Abschnitt Verbesserungsvorschläge
Zur Navigation springen Zur Suche springen

Hallo BASIC algorithm für c(i) arbeitet für lineare Interpolation (von 2 Punkten) nicht!

Die Interpolation mit Lagrange wird auf der Seite doppelt beschrieben. Einmal sollte eigentlich reichen ;) Wenn möglich sollte hier zusammengefasst werden.

Ich habs einfach gelöscht. Der Abschnitt zur Lagrange-Interpolation könnte zwar noch etwas erweitert werden, dazu braucht man das Beispiel allerdings nicht. Danke für den Hinweis. --P. Birken 23:28, 20. Jun 2006 (CEST)
Naja, andererseits hat mir das Beispiel der Lagrange-Interpolation beim Verständnis geholfen, was das Lagrange-Polynom überhaupt ist und welche Eigenschaften es für die Interpolation so nützlich machen. Eine allgemeine Darstellung gibt es hier ja leider nicht, wenn man "Lagrange-Polynom" eingibt, wird man sofort zu "Polynominterpolation" weitergeleitet.
Das ist schon richtig, wir schreiben aber kein Lehrbuch. Die Idee der Lagrange-Polynome kann durchaus noch genauer erklärt werden, das entfernte Beispiel ist als Textgrundlage aber IMHO nicht geeignet. --P. Birken 09:22, 22. Jun 2006 (CEST)

Warum braucht man den Fundamentalsatz der Algebra für Existenz und Eindeutigkeit des Polynoms? Die gelten doch beide in beliebigen Körpern (denn für die Existenz ist die Formel von Lagrange in allen Körpern anwendbar und die Eindeutigkeit kommt daher, dass das Differenzpolynom zweier solcher Polynome höchstens vom Grad n ist und n+1 Nullstellen hat).

Ich habs mal überarbeitet. --P. Birken 20:08, 18. Sep 2006 (CEST)

OK, aber selbst für die Eindeutigkeit braucht man ihn doch nicht: Seien p,q Polynome über dem Körper K vom Grad n, die an n+1 Stellen übereinstimmen. Dann ist f:=p-q höchstens vom Grad n, hat aber n+1 Nullstellen, also f=0. (Mit Induktion nach dem Grad eines Polynoms zeigt man schließlich leicht, dass ein Polynom, das nicht das Nullpolynom ist, höchstens soviele Nullstellen hat, wie sein Grad angibt).

Ja und genau das ist auch als Fundamentalsatz der Algebra bekannt. --P. Birken 08:58, 19. Sep 2006 (CEST)

Also laut Wikipedia sagt doch der Fundamentalsatz, dass der Körper der komplexen Zahlen (im Gegensatz z.B. zu den reellen) algebraisch abgeschlossen ist, dass also dort jedes nichtkonstante Polynom eine Nullstelle besitzt. Der sagt nur etwas über C aus. Aber man braucht ihn eben nicht, weil das alles nur einfache (im Gegensatz zum Fund.-Satz) Argumente benötigt, die überall in Körpern gelten.

Ich seh schon, dass du das mit dem Fundamentalsatz rausgenommen hast, obwohl du anscheinend nicht ganz überzeugt bist. Keine Sorge, ich bin nicht militant, wir können ruhig noch ne Weile diskutieren :)

Um das mit den einfachen Argumenten klarzumachen: Sei p ein Polynom über K vom Grad n mit n+1 verschiedenen Nullstellen. Dann kann man eine Nullstelle als Linearfaktor abspalten (das geht in jedem Körper; der Fundamentalsatz sagt: es gibt immer eine Nullstelle in C, aber allgemein gilt: _wenn_ es eine gibt, kann man sie abspalten). Also p=q(X-a), wobei q n Nullstellen hat und vom Grad n-1 ist. Führt man das fort, so erhält man ein Polynom vom Grad 1 mit zwei Nullstellen, also einen Widerspruch. (Das ist die einfache Induktion, die ich meinte).

Du hast das Argument in Kurz (Fundamentalsatz der Algebra - auch mal was anderes Lesen als nur Wikipedia...), jetzt im Artikel in lang hingeschrieben. Entfernt habe ich es nicht, sondern die Argumente nach Eindeutigkeit und Existenz getrennt. Ansonsten tut es mir leid, aber ich verstehe wirklich nicht, was Du mir überhaupt sagen willst. Was ist Dein Punkt? --P. Birken 23:50, 19. Sep 2006 (CEST)

Die Änderung, die Erwähnung des Satzes herauszunehmen, war wohl ein anderer Anonymer. Ich hab keine Änderung am Artikel vorgenommen. Um Verwechslungen auszuschließen, hab ich mich jetzt mal angemeldet.

Was ich nur sagen wollte: Den Fundamentalsatz muss man nicht heranziehen um zu zeigen, dass man für n+1 vorgegebene Funktionswerte genau ein Polynom findet, das sie an n+1 vorgegebenen Stellen annimmt. Und das muss man nicht, weil man diese Aussage (sogar für beliebige Körper) beweisen kann, ohne den Fundamental- satz zu benutzen.

Was meinst du denn mit "Auch mal was anderes als Wikipedia lesen"? Hast du woanders eine andere Beschreibung des Fundamentalsatzes gefunden?

Der letzte Beitrag ist von mir. Tschuldigung, bin noch neu hier.

--G.Zetzsche 00:08, 20. Sep 2006 (CEST)

Achso, ich meinte schon die ganze Zeit den Fundamentalsatz der Algebra (hab das nur nicht ausgeschrieben). Und der sagt nur etwas über C aus (obwohl er witzigerweise "... der Algebra" heißt).

Wieder von mir. --G.Zetzsche 00:19, 20. Sep 2006 (CEST)

Die reelle Variante ist: ein reelles Polynom n-ten Grades hat höchstens n Nullstellen und das ist genau das, was hier zum Beweis der Eindeutigkeit benutzt wird. --P. Birken 10:14, 20. Sep 2006 (CEST)

Hmm, das hat jemand als Teil des Fundamentalsatzes bezeichnet? Hab ich ja noch nie gesehen. Vermutlich aus didaktischen Gründen oder sowas. Aber gut, wir hatten einfach verschiedene Vorstellungen davon, was der Satz sagt und ich will nicht weiter nerven. Mach's gut.

--134.100.6.5 12:03, 20. Sep 2006 (CEST)

Argh, der letzte ist wieder von mir :) --G.Zetzsche 12:06, 20. Sep 2006 (CEST)

Es ist doch eine triviale Folgerung. Und nur mal als Beispiel: [1]. --P. Birken 14:09, 20. Sep 2006 (CEST)

Naja, es ist eine triviale Folgerung in dem Sinne, dass auch 0+0=0 eine triviale Folgerung daraus ist. Die Tatsache, dass Polynome in Körpern nur soviele Nullstellen haben können, wie ihr Grad angibt, ist vollkommen unabhängig davon, was für ein Körper vorliegt und sehr einfach (ohne den Fundamentalsatz) zu zeigen. Man kann das höchstens deshalb der algebraischen Abgeschlossenheit von C zuordnen, weil man denkt "Na, da gehts doch irgendwie um Nullstellen von Polynomen, das tun wir mal dazu".

Die algebraische Abgeschlossenheit gibt nunmal eine _untere_ Schranke für die Zahl der Nullstellen an, aber die _obere_ Schranke gilt allgemein, ist viel einfacher zu zeigen und hat mit der algebraischen Abgeschlossenheit von C nichts zutun. Auch in größeren Körpern als C können Polynome n-ten Grades höchstens n Nullstellen haben.

Eine Aussage, für die man die algebraische Abgeschlossenheit benutzen kann, wäre vielleicht, dass relle nullstellenfreie Polynome höchstens vom Grad 2 sind, aber dafür, dass höchstens n Nullstellen vorliegen, braucht man sie nicht.

--G.Zetzsche 14:34, 20. Sep 2006 (CEST)

Auch das kann ich nicht wirklich zu Polynominterpolation in Beziehung setzen. --P. Birken 14:36, 20. Sep 2006 (CEST)

Ups, ich meine irreduzibel statt nullstellenfrei :) --G.Zetzsche 14:36, 20. Sep 2006 (CEST)

Also langsam zweifle ich am Sinn der Diskussion. Ich versuche nocheinmal klarzumachen, was ich meinte.

In einer Version dieses Artikels stand: Aus dem Fundamentalsatz der Algebra folgt die Eindeutigkeit des Interpolationspolynoms. Und mein Einwand ist, dass man den Fundamentalsatz dazu nicht braucht, weil er lediglich aussagt, dass C algebraisch abgeschlossen ist. Das ist, als würde man sagen: Und da nun der große Satz von Fermat bewiesen ist, wissen wir, dass differenzierbare Funktionen stetig sind. Es ist einfach ein Satz unnötig zitiert worden, mehr nicht. Ist ja auch nicht so schlimm. Irgendwie reden wir aneinander vorbei und sollten das vielleicht lassen.

Wie immer: Der letzte ist von mir. --G.Zetzsche 14:46, 20. Sep 2006 (CEST)

Was heisst denn "lediglich aussagt, dass C algebraisch abgeschlossen ist". Daraus folgt genau das, was man hier braucht. --P. Birken 14:54, 20. Sep 2006 (CEST)

OK, endlich sind wir an einem gemeinsamen Punkt angelangt! Nein, das folgt höchstens daraus, in dem Sinne, dass jeder richtige Satz aus jedem anderen richtigen Satz folgt.

Ich wüßte nicht, wie man eine obere Schranke für die Anzahl der Nullstellen aus einer unteren Schranke für die Anzahl der Nullstellen folgert! Weil ersteres eine ganz simple Sache ist und zweiteres nicht *so* einfach ist. Oder gibt es einen wunderbar eleganten Beweis, der die algebraische Abgeschlossenheit benutzt, den ich nicht sehe? Wenn ja, wüßte ich ihn gern!

Wieder von mir. (Oder um meinen letzten Beitrag noch mal kurz zu formulieren: "Wie denn?" :) )

Genau n komplexe Nullstellen ist keine untere Schranke und natuerlich folgt daraus, dass es maximal n reelle gibt. Fuer mich ist hier auch EOD, da die ganze Diskussion irgendwie sinnlos ist. --P. Birken 16:40, 20. Sep 2006 (CEST)

Wenn ich mich hier nach geraumer Zeit mal einmischen darf: Ich hab den Fundamentalsatz der Algebra nun in 4 verschiedenen Ausführungen in 4 verschiedenen Veranstaltungen bewiesen. In der Gauß-Disseration von 1799 steht laut einem meiner Profs sogar "lediglich", dass jedes Polynom in vom Grad größer gleich 1 eine Nullstelle besitzt, durch einen Linearfaktor ausklammerbar ist und der zweiter Faktor ein Polynom mit einem um 1 reduzierten Grad ist. Desweiteren wird in vielen Numerik-Lehrbüchern der Beweise der Eindeutigkeit des Interpolationspolynoms eben über den Fundamentalsatz der Algebra in dieser gängigen Form (bzw. bei Hermite-Interpolation über Rolle) geführt, da der einfach allgemein bekannt ist.
Was ich mit meiner hier viel zu lang ausgeführten Meinung sagen will, ich find die "Beweisführung" so sehr gut ^^ -- Crus4d3r

meinem bescheidenen verständnis nach gibt es für n+1 paarweise verschiedene punkte genau ein polynom vom grad kleiner gleich (d.h. höchstens) n, dass diese erfüllt. liegen nämlich alle punkte auf einer geraden, so hat das polynom den grad 1 (ist somit eine lineare funktion) ... !? 21:16, 04. Jun 2006 (CEST)

Optimale Knotenwahl

[Quelltext bearbeiten]

Gibt es bereits einen Artikel zur optimalen Knotenwahl (Nullstellen der Tschebycheff-Polynome)? Ich würde fast meinen das könnte hier her passen. -- Crus4d3r

Ja, die Interpolationsgüte geht mit der Knotenwahl einher. Das Runge Phänomen tritt auch nur auf, wenn die Stützstellen nicht zum Rand hin verdichtet werden. Chebyshev-Punkteverteilungen sind hier ideal. Das wird allerdings bei der Interpolationsgüte nicht genannt, und sollte geändert werden. Das sollte aber besser ein Mathematiker machen... Marcus Zengl (17:19, 15. Sep. 2010 (CEST), Datum/Uhrzeit nachträglich eingefügt, siehe Hilfe:Signatur)Beantworten

Beweis der Existenz eines Interpolationspolynoms

[Quelltext bearbeiten]

Nachdem Ihr Euch oben so schön über die Eindeutigkeit des Interpolationspolynoms ausgelassen habt, kommt jetzt die Existenz. Die Beweisführung wie sie jetzt ist Die n + 1 Gleichungen P(xi) = fi ergeben ein lineares Gleichungssystem mit n + 1 Gleichungen. Das Interpolationspolynom n-ten Grades hat n+1 Koeffizienten, also ebenso viele Freiheitsgrade wie das lineare Gleichungssystem. Daher muss eine Lösung existieren sollte so nicht stehen bleiben. Einerseits ist in der Theorie der linearen Gleichungssysteme (LGS) der Begriff des Freiheitsgrades m. E. unüblich. Andererseits ist der Schluss, dass jedes LGS mit n+1 Unbekannten (= n+1 Freiheitsgraden?) in n+1 Gleichungen eindeutig lösbar ist, schlicht falsch. Hier fehlt eine Aussage über die Struktur des entstehenden LGS. Die Koeffizientenmatrix ist nämlich die Vandermonde-Matrix. Dort ist der Beweis der Existenz und Eindeutigkeit übrigens als Anwendung korrekt geführt. MfG --Bertrus 15:21, 20. Okt. 2008 (CEST)Beantworten

Ein kürzerer Beweis, der etwas Hintergrundwissen über lineare Abbildungen vorraussetzt, ist im Artikel Haar-Raum, Unterpunkt Interpolation, zu finden. --Bertrus 17:11, 20. Okt. 2008 (CEST)Beantworten

Nur mal so als Frage, in der Zeit die du gebraucht hast, um das oben zu verfassen hättest Du doch auch den Artikel editieren können oder? --P. Birken 20:59, 22. Okt. 2008 (CEST)Beantworten
Ich habe es vorgezogen, die allgemeine Interpolation in Haar-Räumen zu beschreiben, anstatt wieder mit Dir zu streiten ;-) --Bertrus 12:54, 24. Okt. 2008 (CEST)Beantworten

Vandermonde-Matrix

[Quelltext bearbeiten]

Wieso wird die Matrix hier nicht erwähnt? Im dortigen Artikel hat es einen Teil über Interpolation drin. Gruss --hroest Disk 17:05, 29. Nov. 2008 (CET)Beantworten

Wird jetzt erwähnt. --Scholten 14:13, 7. Jul. 2009 (CEST)Beantworten

Lagrange Basis

[Quelltext bearbeiten]

Kann es sein, dass das Verhalten der Lagrange-Polynome folgendermassen ist:

li(xj) = {1, falls xj = xi; 0 <= li < 1, falls xj != xi}  ?

Dabei muss xj natürlich nicht zwingend eine Stützstelle sein des Interpolationspolynoms. Man könnte nun noch hinzufügen, dass falls xj != xi und xj ist Element der Stützstellen, dann folgt li(xj) = 0

--Teeh 11:54, 26. Jan. 2009 (CET)Beantworten

Ich frag mal so: Was fehlt Dir denn für das Verständnis dieses Artikels? --P. Birken 20:59, 26. Jan. 2009 (CET)Beantworten


Überarbeitung des gesamten Artikels

[Quelltext bearbeiten]

Aufgrund dieser Diskussion habe ich auf meiner Diskussionsseite einen Vorschlag zur Überarbeitung dieses Artikels gemacht. --Scholten 00:51, 23. Jun. 2009 (CEST)Beantworten

Da die Aktion mitlerweile mehrere Artikel betrifft, habe ich hier eine Diskussion dazu eröffnet. --Scholten 17:24, 24. Jun. 2009 (CEST)Beantworten

Fachliche Fragen

[Quelltext bearbeiten]

Benennung Neville-Algorithmus, Aitken-Algorithmus, ...

[Quelltext bearbeiten]

Mir ist nicht ganz klar, welcher Algorithmus jetzt der von Aitken, welcher der von Neville und welcher der Neville-Aitken-Algorithmus ist. Es scheint sich auch nicht um dieselben Algorithmen zu handeln, beispielsweise findet sich im Buch Numerical Recipes der Hinweis, die ersten beiden Algorithmen würden oft miteinander verwechselt. Es wird aber nur der Neville-Algorithmus erklärt, der Aitken-Algorithmus gilt als obsolet. Ich nehme an, bei Neville-Aitken und Neville handelt es sich um denselben Algorithmus, der auf der Idee des Aitken-Algorithmus basiert. Interessant wäre jetzt, wie der Aitken-Algorithmus genau aussieht. --Scholten 16:35, 25. Jun. 2009 (CEST)Beantworten

Im Bronstein wird er Aitken-Neville Algorithmus genannt... --Marcuszengl 17:31, 16. Sep. 2010 (CEST)Beantworten

Konvergenz bei analytischen Funktionen?

[Quelltext bearbeiten]

Hi Christian1985, du hast den Abschnitt Konvergenzverhalten so geändert, dass für alle analytischen Funktionen bei feiner werdenden Intervallteilungen ihre Polynominterpolanten konvergieren. Hast du dafür eine Literaturangabe? Bei Stoer/ Bulirsch und in meinem Uni-Skript ist die Behauptung nur für ganze Funktionen gegeben. Schwarz/ Köckler hab ich leider nicht zur Hand. Ich kann mir gut vorstellen, dass die Behauptung auch für analytische Fkt gilt, würde das aber ungern ohne Nachprüfen schreiben. Viele Grüße Daniel --Scholten 16:22, 26. Jun. 2009 (CEST)Beantworten

Naja das ist doch einfach die Definition einer analytischen Funktion. Eine Funktion ist genau dann auf I analytisch. Eine Funktion kann nicht ganz sein. Der Begriff ganze Funktion hat eigentlich nur historische Berechtigung. Dieser Begriff wurde im Satz von Liovill geprägt. Eine ganze Funktion ist eine Funktion, welche auf ganz analytisch ist. Diese historische Begründung findet man im Buch Funktionentheorie von Freitag und Busam. Ein Numerikbuch mit einer anderen Formulierung des Satzes kenne ich leider nicht. Ich kenne in diesem Bereich nicht viele Bücher. --Christian1985 17:43, 26. Jun. 2009 (CEST)Beantworten
Ach, das hatte ich gar nicht bedacht, dass es nur um auf definiertes geht. Da forsche ich aber nochmal nach, ob sich der Satz nicht auch auf ausdehnen lässt, das liegt ja irgendwie nahe. --Scholten 23:29, 26. Jun. 2009 (CEST)Beantworten
Außerdem kann formal gar nicht analytisch sein, weil analytische Funktionen nur für offenen Definitionsbereich definiert sind. Aber wenn ich das alles richtig verstehe, ist das Formsache und man könnte f ist analytisch in x auch für Randpunkte x definieren, wenn man Umgebung entsprechend umdefiniert. Oder man braucht hier nur f analytisch auf (a, b) fordern? Am Einfachsten wär's wirklich, wenn der Satz auch auf gelten würde. --Scholten 23:39, 26. Jun. 2009 (CEST)Beantworten

Eindeutig bestimmtes Polynom von Grad n oder <= n?

[Quelltext bearbeiten]

In Definition/ Problemstellung kann das maximal doch eigentlich weg. Das Polynom hat immer genau Grad n, oder sehe ich das falsch? --Scholten 13:56, 28. Jun. 2009 (CEST)Beantworten

jo, denke ich auch. --P. Birken 20:23, 29. Jun. 2009 (CEST)Beantworten
done --Scholten 10:30, 1. Jul. 2009 (CEST)Beantworten

Schreibweise für die Newton-Rekursionsformel

[Quelltext bearbeiten]

Unter dem Abschnitt Polynominterpolation#Bestimmung der Koeffizienten: Schema der dividierten Differenzen wird durchgehend die Schreibweise gewählt, die ich sonst nie gesehen habe. Z. B. auf der unter „Weblinks“ gelistete Seite http://www.mathe-online.at/materialien/Andreas.Pester/files/applets/Interpolation/ (unter „Newton Interpolation“) wird die Notation verwendet, die allgemeiner im Gebrauch zu sein scheint. --Yuwash 15:37, 7. Feb. 2012 (CET)Beantworten

Schau mal nach ganz unten. -- pberndt (DS) 18:25, 7. Feb. 2012 (CET)Beantworten
Ah, das Thema wird bereits kotrovers diskutiert! Danke für den Hinweis. --Yuwash 16:05, 8. Feb. 2012 (CET)Beantworten

Verbesserungsvorschläge

[Quelltext bearbeiten]

Verbesserung Neville-Aitken

[Quelltext bearbeiten]

Schön wäre auch noch etwas zur Verbesserung des Neville-Aitken-Algorithmus, bei der die Differenzen zwischen den Rekursionsschritten betrachtet werden, siehe Stoer/ Bulirsch oder Numerical Recipes. Ich komme da aber grade nicht zu, vielleicht später, oder jemand anders schreibt's rein. --Scholten 16:42, 25. Jun. 2009 (CEST)Beantworten

Schön wären noch ausführlichere Angaben zu Anwendungen finde ich. --Scholten 17:42, 25. Jun. 2009 (CEST)Beantworten

numerische Stabilität

[Quelltext bearbeiten]

In meinen Büchern habe ich nichts zur numerischen Stabilität der Verfahren gefunden, das wäre auch interessant. --Scholten 17:42, 25. Jun. 2009 (CEST)Beantworten

baryzentrische Interpolation

[Quelltext bearbeiten]

etwas dazu, siehe en-WP

Ich schrieb so eben ein Kapitel dazu. Abschnitt könnte gelöscht werden. HerrHartmuth (Diskussion) 21:55, 5. Sep. 2017 (CEST)Beantworten

Eines zu Neville-Aitken, vielleicht aber erst mit der Verbesserung des Algorithmus. Eines, wo ein Stützpunkt hinzugefügt wird. Eines, wo zu denselben Stützstellen ein neuer Satz Stützwerte gegeben ist. Eines zur Fehlerabschätzung (schön ist z.B. Sinus interpoliert). --Scholten 23:08, 25. Jun. 2009 (CEST)Beantworten

Runges Phänomen

[Quelltext bearbeiten]

Man könnte auf eine ideale Wahl von Stützstellen, um dieses Phänomen zu vermeiden, hinweisen. Ich kenne da nur die Nullstellen der Legendre-Polynome, die die Lebesgue-Konstante auf 0.04 (oder so) an die untere Schranke heranbringen - evntl geht es noch besser?! Besonders schön wäre das in Verbindung mit einem weiteren Plot der Rungefunktion mit Wahl dieser Stützstellen - leider habe ich keine Ahnung, mit welcher Software Martinpie die Bilder dazu gemacht hat, da müsste man sich noch mal mit ihm in Verbindung setzen, damit die Bilder am Ende zueinander passen. -- Pberndt (DS) 22:10, 30. Jun. 2009 (CEST)Beantworten

Zunächst einmal ist festzustellen, daß der Abschnitt (wie viele andere Behauptungen auch) ohne Quellenangabe ist und das wird auch so bleiben, weil es für diesen hanebüchenden Unsinn keine seriösen Quellen gibt. Carl Runge bezieht sich bei seinem Paradoxon ausschließlich auf äquidistante Stützstellen, Titel seines Aufsatzes von 1901 ist deshalb auch: "Über empirische Funktionen und die Interpolation zwischen äquidistanten Ordinaten". Außerdem gilt das nur für Funktionen, deren alle Ableitung an den Intervalgrenzen schnell gegen Null streben. Der Approximationssatz von Weierstraß ist aber unverändert gültig: Eine stetige und n-mal stetig ableitbare Funktion ist auf einem vorgegebenen Intervall beliebig genau zu approximieren, und damit auch zu interpolieren, mit einem Polynom von höchstens n-tem Grad. Wie das Polynom aussieht, hängt unter anderem von dem Genauigkeitskriterium ab: zB Integral des Fehlerquadrats oder minimale größte Abweichung, relativer oder absoluter Fehler. Bei vorgegebenem Polynomengrad n gibt es genau eine Verteilung der n+1 Stützstellen, die genau ein Genauigkeitskriterium optimal erfüllt.
Die penälerhafte Schlußfolgerung, daß (bei offensichtlich ungeeigneter Stützstellenverteilung) die Splinefunktion die besseren Interpolationsergebnisse bringt, ist bestenfalls eine Spitzfindigkeit. Eine allgemeine Fehlerabschätzung der (kubischen) Splinefunktion ist kaum möglich und wegen allgemeinem Desinteresse an diesem Hilfsmittel auch kaum mehr Gegenstand aktueller Forschung. Man weiß nur, daß der Fehler stückweise höchstens die Ordnung 4 hat (meistens weniger), und das auch nur, wenn man nicht gleiche Stützstellenabstände sondern gleiche Bogenlängen verwendet. Der Versuch die glatte aber zickige Funktion ln(x)=Spline(n,x) zwischen 1 und 2 auf doppelte Genauigkeit (16 Stellen) als Spline zu bestimmen benötigt über 3500 Stützstellen und 7000 Knotenwerte, und das nur mit Tricks. Ein (MiniMax-) Polynom schafft das mit 19 Stützstellen und Koeffizienten.
Das Runge-Phenomän ist keinesfalls ein Plädoyer für die Splinefunktion, die häufig von Naivlingen als eine Art heiliger Gral der numerischen Mathematik dargestellt wird. Sie machen dabei stets den Eindruck, als wüßten sie sicher, daß sie die Weisheit mit Löffeln gefressen haben. Tatsächlich ist das Runge-Phenomän eine Ermahnung, daß es in der NuMa kein einfachen "Kochrezepte" gibt und die Qualität des Ergebnisses mehr vom Geschick und der Erfahrung des Anwenders und nicht vom Unterhaltungswert seines Mathelehrers abhängt. Runges Anregung, als Lösungsansatz einmal einen Spline zu versuchen, war bis in die 1960er vielleicht noch brauchbar, heute würde man aber bei vorgegebener Äquidistanz der Stützstellen (zB Tabellenwerte, Meßprotokol) zur Kosinus- oder allgemeinen Fouriertransformation greifen oder wenigstens eine zusätzliche Gewichtungsfunktion vorschalten.
Der ganze Artikel ist voll mit solchen Halbwahrheiten, naiven Schlußfolgerungen und kuriosen Bewertungen, durchweg ohne Beleg. Die Ansichten bei "Anwendungen" sind seit über 50 Jahren veraltet, aber Stand der Oberstufen- oder FH-Mathematik. Gleiches gilt für die Vandermondmatrix, die Gausselimination und die Lagrangepolynome, ingendwie nur halbwahr, unvollständig und veraltet. Ein gut konditioniertes Interpolationsproblem wird eben nicht penälermäßig mit Gauss sondern über Vandermont mithilfe der Lagrangepolynome gelöst, so ungebräuchlich und theoretisch ist beides (siehe Numerical Recepies in ...). Ob mit Newton oder Neville-Aitken ist egal, die Kondition des Problems, also die Stützstellenverteilung, ist allein entscheidend für die Brauchbarkeit der Lösung, nicht für die Lösbarkeit. Wenn man merkt, wie einem die Differenzen ausgehen, war schon der Ansatz falsch. Das ungeschickt gewählte Beispiel der Tangensfunktion zeigt immerhin die Auswirkungen eines schlecht konditionierten Problems mit nur 5 Stützstellen und die Nützlichkeit der Lagrangepolynome. Die Erklärung dazu ist einfach nur falsch. Die Tschebyscheffpolynome beginnen nicht erst mit T2. Und was ist mit dem Restgliedpolynom aus den Tschebyscheff-Lobatto-Knoten? Ein Hinweis auf die numerisch stabilere Interpolation mit Tschebyscheff- oder Legendrepolynomen anstelle der naiven Polynomen wäre auch notwendig. "Konvergenz" ist sehr chaotisch und bezieht sich nur auf einen nicht näher erklärten Spezialfall. Es geht auch nicht um analytische Funktionen, sondern um Funktionen, zu denen für jeden zu wählenden x-Wert ein y-Wert bestimmt werden kann, zB durch messen. Bei "Verallgemeinerung" sind alle drei Sätze sachlich falsch und die Überschrift mißverständlich. --46.115.0.174 17:12, 14. Aug. 2012 (CEST)Beantworten

Numerische Betrachtung der Interpolation

[Quelltext bearbeiten]

Dieser Artikel geht nicht auf die Numerischen Gesichtspunkte der Polynominterpolation. Wie z.B. die Konvergenzgeschwindigkeit oder Kondition. Ich habe mal ein wenig rumgesucht auf der Wikipedia und keinen Artikel gefunden der dies tut. Sollte dieser Artikel auf die numerische Polynominterpolation erweitert werden, oder stattdessen ein neuer Begonnen werden? --Latency 09:30, 10. Jul. 2009 (CEST)Beantworten

Bis jetzt behandelt der Artikel fast ausschließlich die "technischen" Aspekte von Polynominterpolation, diese allerdings (neuerdings) komplett an Ort und Stelle. Darum bin ich stark dafür, die numerischen Aspekte auch hier im Artikel einzubauen. --Scholten 18:17, 10. Jul. 2009 (CEST)Beantworten

Änderung vom 07. April revertiert

[Quelltext bearbeiten]

Habe ich rückgängig gemacht. mMn war die alte Formel richtig und die neue Falsch (Guter Indikator: Im Index kan i=0 nicht mehr vor, rechts vom Gleichheitszeichen dann plötzlich doch, aber mit falschem Vorzeichen). -- pberndt (DS) 15:29, 7. Apr. 2011 (CEST)Beantworten

Notation der dividierten Diffs

[Quelltext bearbeiten]

([2])

Ich kenne die auch eher so, wie sie die IP notiert. Und Operatoren kenne ich auch von beiden Seiten notiert.--goiken 14:30, 13. Jun. 2011 (CEST)Beantworten

OK, ich schaue nächste Woche nochmal in die Literatur. Viele Grüße --P. Birken 14:42, 13. Jun. 2011 (CEST)Beantworten
Sollte am Ende einheitlich mit Hermiteinterpolation bleiben. -- pberndt (DS) 22:44, 13. Jun. 2011 (CEST)Beantworten
Sieht nicht gut aus: Opfer machts mit f[...], Bjoerck/Dahlquist mit [...]f, Schwarz/Koeckler drueckt sich drumrum und macht [...], ganz ohne f. Hat noch jemand andere Sachen zur Hand? --P. Birken 15:58, 17. Jun. 2011 (CEST)Beantworten
Carl De Boor (Verweis aus en) verwendet eine ganz andere Notation, ∆(), Burden/Faires f[..], Deuflhard/Bornemann [..]f. Das waren die ersten drei, wo ich nun reingeschaut habe, das Bild ist dasselbe. Wiedemauchsei: Beide Notationen sind offenbar ähnlich verbreitet. Aus meiner eigenen Erfahrung bin ich der Meinung, dass für Anfänger die Notation f[...] natürlicher ist (Vielleicht weil man die Ästhetik der anderen Notation erst später begreift? ☺), daher wäre ich im Zweifelsfall eher für die. -- pberndt (DS) 16:52, 17. Jun. 2011 (CEST)Beantworten
Diese Frage geht anscheinend ins Leere (jeder Professor/Autor benutzt einfach die Notation, die ihm gefällt!). Gibt es keine wikipedia-weite Regelung, woran man sich bei der mathematischen Notation orientieren soll? (ISO?)--Yuwash 16:25, 8. Feb. 2012 (CET)Beantworten
Die gibt es nicht. Speziell hier ist die Notationsvielfalt auch nachzuvollziehen: Als Funktionalanalytiker erkennt man in den dividierten Differenzen den Operator (bzw. das Funktional, dass aus einer Funktion eine Zahl macht), als Didakt hat man die Zielgruppe vor Augen, die als vermutlich Erstsemester mit Operatoren nicht so viel anzufangen weiß und es natürlicher findet, wenn Funktionsparameter rechts von der Funktion stehen. Mir ist es wichtig, dass wir hier in der Wikipedia einen einheitlichen Standard benutzen. Welcher das ist, ist mir relativ egal und ich halte mich gerne an den Status Quo. Wenn's Dir wichtig ist, starte doch mal in PD:M eine Meinungsumfrage! -- pberndt (DS) 17:12, 8. Feb. 2012 (CET)Beantworten

Entwicklungen der letzten Jahre

[Quelltext bearbeiten]

Im Artikel sind leider die Entwicklungen der letzten Jahrzehnte auf dem Gebiet nicht zu finden:

  • Baryzentrische Formeln, die numerisch stabil sind (Higham 2004), fehlen komplett (eine der baryz. Formel ist sogar rückwärtsstabil).
  • Es wird für die Runge-Funktion tatsächlich Spline-Interpolation empfohlen (oh je). Polynominterpolation mit Tscheb.-Knoten konvergiert da sogar GEOMETRISCH schnell.
  • u.s.w.

Empfehlung FACHliteratur: z.B. http://www2.maths.ox.ac.uk/chebfun/ATAP/

oder auch das "Myth-Buster-Paper" von Trefethen. http://people.maths.ox.ac.uk/trefethen/mythspaper.pdf

-- 131.159.70.197 15:23, 20. Apr. 2012 (CEST)Beantworten

Skript als interaktives Beispiel

[Quelltext bearbeiten]

Hallo zusammen,

ich habe gerade hier ein interaktives Beispiel zur Polynominterpolation erstellt. Eventuell wäre das was für die "Weblinks". Da ich jedoch der Autor der Seite und des Skripts bin, will ich das nicht selbst in die Weblinks schreiben.

Das ganze könnte man von mir aus auch direkt in die Wikipedia einbinden. Allerdings habe ich Zweifel, ob das möglich ist.

Grüße, --Martin Thoma 09:46, 4. Jul. 2013 (CEST)Beantworten

Groß-Pi-Notation Lagrange-Basispolynome

[Quelltext bearbeiten]

Vielleicht bin ich nur pingelig, aber findet ihr nicht auch

schöner (und gleich auf den ersten Blick eindeutiger) als:

? Letzteres wird wohl auch in einem Teil der Literatur verwendet, aber wäre das allein auch Grund genug das beizubehalten? Das englische Wikipedia hat jedenfalls die erste Form. Soll ich vielleicht auch gleich auch eine Diskussion in irgendeinem Meta-Bereich (welchen ich zuerst finden muss) starten? ;) --Unverbluemt (Diskussion) 20:22, 28. Aug. 2014 (CEST)Beantworten

@Unverbluemt: Ich finde die zweite Notation auch schöner und sehe keine Grund, der dagegen spricht sie im Artikel umzusetzen. --Martin Thoma 05:23, 29. Aug. 2014 (CEST)Beantworten
Die zweite? --Unverbluemt (Diskussion) 13:45, 30. Aug. 2014 (CEST)Beantworten
Oh, ich habe mich bei dir verlesen. Naja, es istt nur eine Notation. Ich finde die zweite schöner als die erste, da sie kompakter ist (also: Weniger Platz zwischen dem Summensymbol und dem Bruch). Aber im Prinzip ist mir das relativ egal. Es sollte im Artikel vor allem einheitlich sein.
Grüße, --Martin Thoma 20:46, 30. Aug. 2014 (CEST)Beantworten