Diskussion:RANSAC-Algorithmus/Archiv
Das muss irgendwann nochmal rein:
- ===multiRANSAC===
- Mittels RANSAC kann man immer nur ein Modell in die Datenpunkte legen. MultiRANSAC erweitert RANSAC dahingehend, dass es mehrere Modelle in eine Punktewolke legen kann. Dazu sucht es in den Datenpunkten ein Modell, entfernt alle Punkte, die zu diesem Modell gehören, und sucht dann nach dem nächsten.
<ref>M. Zuliani, C. S. Kenney und B. S. Manjunath: The Multiransac Algorithm and its Application to Detect Planar Homographies. September 2006 (ucsb.edu [PDF; abgerufen am 4. August 2007]). </ref>
Ich stehe mit dem Autor in Kontakt. Wenn der mir zwei Bilder gegeben hat (oder den Code), packe ich diese und den Text wieder rein. --Haldir 13:31, 7. Aug. 2007 (CEST)
Lemmafrage
Wär ein nicht-Klammer-Lemma wie RANSAC-Algorithmus nicht ein wenig netter? --Complex 17:48, 10. Aug. 2007 (CEST)
- [x] Done Haldir 12:57, 15. Aug. 2007 (CEST)
Review vom August 2007
Hallo,
nach grossen Umbauarbeiten hätte ich diesen Artikel gerne lesenswert bekommen und bin deswegen für jeden Hinweis dankbar! -- Haldir 14:10, 2. Aug. 2007 (CEST)
- Hm, so gar nicht mein Gebiet, aber ein paar mehr Einzelnachweise würden schonmal nicht schaden. Den Treffern in LNCS nach zu urteilen gibt es diverse Varianten („preemptive“, mit „Bucketing“ und mit „Priors“ hüpfen mich an, irgendwo hab ich gerade auch noch multiRANSAC gesehen). Lässt sich über diese Varianten oder ihre Anwendungen vielleicht noch was interessantes schreiben?
- Ich sag das nur ungerne und bin hoffentlich einfach nur pessimistisch, aber wenn sich zu RANSAC nicht bedeutend mehr schreiben lässt, seh ich bei den derzeitigen Anforderungen auf WP:KLA wenig Chancen. Es ist schlicht noch zu wenig Text zum Lesen. :( Viele Grüße, —mnh·∇· 15:31, 2. Aug. 2007 (CEST)
- Alles klar, danke. Dann werde ich mich mal ranmachen. Gestern beim Einschlafen sind mir auch noch sehr schöne Ideen für Bilder gekommen *stay tuned* ;-) --Haldir 13:47, 3. Aug. 2007 (CEST)
Ich kenne den Algo zwar nicht(und habe auch jetzt nicht extra irgendwo nachgeblättert) mein Eindruck ist aber das sich dieses Vorgehen vor allem bei vielen Ausreißern lohnt. Unter dieser Annahme wirkt die Einleitung ein wenig skuril defekte Messinstrumente, Ablesefehler in hohem Ausmaß sollten doch eher technologisch als algorithmisch gelöst werden. Eine Literaturliste zum nachschlagen wäre auch schön. Alternativen wären auch nicht schlecht. So genug gemeckert. --Mathemaduenn 13:57, 4. Aug. 2007 (CEST)
- Danke für die Hinweise, ich mach mich mal ran. Haldir 17:29, 4. Aug. 2007 (CEST)
Könnt Ihr bitte nochmal schauen? Danke! --Haldir 19:48, 6. Aug. 2007 (CEST)
- Ui, da hat sich ja Einiges getan. :) Ein bisschen Kleinzeug:
- „Eine alternative Variante beinhaltet eine Modifikation im Schritt 3. Hier kann man auch überprüfen, ob der Consensus set so viele Punkte enthält,“—Hm, wie ist das „kann man“ hier gemeint? Kann der Programmierer diesen vorzeitigen Abbruch noch auf die Variante aufsetzen (wenn er denn Lust dazu hat) oder ist das bereits die (wie ich vermute präemptive) Variante? Falls ich richtig rate, würd ich es anders formulieren (nur so als Vorschlag):
- „Eine alternative Variante des Algorithmus prüft in Schritt 3 zusätzlich die Anzahl der Punkte im Consensus set. Sind es hinreichend viele, terminiert der Algorithmus und das Modell wird mit den gewählten Punkten berechnet. Diese Variante wird als präemptives – d. h. vorzeitig abbrechendes – RANSAC bezeichnet.“
- Zugegeben absolutes Kleinzeug, aber ich fänd es sinnvoll, die Anzahl der Iterationen in allgemeiner Beschreibung, Details und Pseudocode gleich zu benennen, im Moment sind es N und k.
- „RANSAC wird auch dazu benutzt, in verrauschten dreidimensionalen Punktemengen geometrische Körper wie Zylinder oder ähnliches zu fitten“—Fällt Dir eine griffige Umschreibung für „fitten“ ein? Ich glaub nicht, dass „fitten“ zum allgemeinen Wortschatz zählt, da wär ein erklärender Nebensatz nicht falsch.
- Es sind noch relativ viele „man könnte“ und ähnliche „man“s drin. Daran ist für eine Erklärung nichts auszusetzen, es ist aber auch nicht der enzyklopädischste Stil.
- So genug genörgelt, viele Grüße, —mnh·∇· 22:26, 6. Aug. 2007 (CEST)
- Vielen, vielen dank. Ich habe jetzt nochmal einiges gemacht. Es wäre nett, wenn jemand nochmal drüber schauen kann. Speziell für typos wird man ja blind. Danke! --Haldir 12:39, 7. Aug. 2007 (CEST)
Archivierung LW Disk. vom 15. August 2007 (erfolgreich)
RANSAC (Random Sample Consensus, deutsch etwa Korrespondenzen von Zufallspunkten) ist ein mathematischer Algorithmus zur Detektion von Ausreißern beziehungsweise groben Fehlern innerhalb einer Menge von Datenpunkten. Er wurde 1981 von Martin A. Fischler und Robert C. Bolles vorgestellt.
Der Artikel war bis Juli in einem traurigen Zustand. Danach durchlief er die Mathe-Qualitätssicherung und den Review-Prozess. Ich habe einiges dran gemacht, sodass ich hier zum ersten mal einen Artikel vorschlagen möchte. Ganz aufgeregt und als Autor Haldir 08:30, 8. Aug. 2007 (CEST)
Neutral ist der- ich würde mir noch eine etwas ausführlichere Zusammenfassung als Einleitung wünschen. Sonst schön, auch als nicht-Mathematiker versteht man, um was es geht. --89.48.15.10 08:44, 8. Aug. 2007 (CEST)
Schweikhardt 12:27, 9. Aug. 2007 (CEST)
Neutral Braucht noch Feinschliff, z.B. sprachlicher Natur: Punktemenge kenne ich nur als Punktmenge. "Der Grund ist folgender" = Füllsel ohne Information, weglassen. Dann scheinen mir auch hier und da vor allem Kommas zu fehlen. Wenn ein Orthografie-Experte mal drüberläse... --- Danke für die Anmerkungen. Ich habe alles mal eingebaut. In der Kriterien heisst es: "Kleinere Holprigkeiten und Schwächen werden toleriert, solange dies nicht das Verständnis erschwert." Ich hoffe, dass ist bei dem Artikel gegeben. Haldir 14:09, 9. Aug. 2007 (CEST)
- wdwd 20:15, 9. Aug. 2007 (CEST) Pro. Trotz nicht gerade alltäglichen Inhalt meiner Meinung ok und informativ. Für dieses Thema dürfte auch der sonst vielleicht etwas kleinere Umfang angemessen sein. --
- Pro, kann sicher noch etwas poliert werden, aber imo durchaus lesenswert. —mnh·∇· 00:43, 10. Aug. 2007 (CEST)
- Pro - für einen Artikel aus diesem Themenbereich erfreulich verständlich geschrieben und nicht mit Formeln überfrachtet. --Fritz @ 01:44, 10. Aug. 2007 (CEST)
- pro - gefällt mir. Noch ein paar kleine Polituren (Warum muss man hier Mengen mit S bezeichnen? usw.) wären nett. --Complex 09:06, 10. Aug. 2007 (CEST)
- Hmm, gute Frage. Was wäre denn typisch für eine Menge aus P? M ist ja schon weg? Haldir 09:51, 10. Aug. 2007 (CEST)
- So, ich habe es jetzt ganz anders gemacht und jetzt gefällt es mir viel besser. Um einiges lesbarer. Danke fürs NaseDraufStupsen! Haldir 10:04, 10. Aug. 2007 (CEST)
- Hmm, gute Frage. Was wäre denn typisch für eine Menge aus P? M ist ja schon weg? Haldir 09:51, 10. Aug. 2007 (CEST)
- Mathemaduenn 18:17, 10. Aug. 2007 (CEST) Pro Die Tabelle "Anz. der Datenpunkte" vllt. nochmal überdenken. Ich denke es wären prozentual weniger Ausreißer und dafür mehr datenpunkte interessant. Wie im Bsp. und man kann bei 2 Datenpunkten auch schlecht 5% Ausreißer haben. Eine Übersetzung von Consensus set wäre nicht, so es sie denn gibt. Aber sicher lesenswert :-) --
- Tabelle habe ich mal geändert - sie ist jetzt kompakter. Einzig mit dem Satz ( - meint, dass hier die Funktion gegen unendlich strebt.) bin ich nicht ganz zufrieden. Eigentlich strebt ja der Nenner gegen 0. Falls jemand eine bessere Formulierung einfällt... Haldir 09:55, 13. Aug. 2007 (CEST)
- "Performing RANSAC" sagt mein Stitching-Programm immer - jetzt habe ich auch als Nicht-Mathematiker eine grundlegende Vorstellung, was der da eigentlich macht und kann die Wirkung der dort einstellbaren Parameter einschätzen. Smial 18:55, 10. Aug. 2007 (CEST) Pro --
Artikel ist lesenswert (Version)--Ticketautomat 09:26, 15. Aug. 2007 (CEST)
Archiv Review März 2008
RANSAC (Random Sample Consensus, deutsch etwa Korrespondenzen von Zufallspunkten) ist ein mathematischer Algorithmus zur Detektion von Ausreißern und groben Fehlern innerhalb einer Menge von Datenpunkten beziehungsweise Messwerten. Er wurde offiziell 1981 von Martin A. Fischler und Robert C. Bolles in den Communications of the ACM vorgestellt. Eine interne Präsentation (beide Autoren arbeiteten am Stanford Research Institute) fand aber schon im März 1980 statt.
Der Artikel ist lesenswert, ich hätte ihn gerne exzellent gemacht. Vielen Dank für etwaige Hilfe! Curtis Newton ↯ 07:57, 11. Mär. 2008 (CET)
- "RANSAC ... ist ein mathematischer Algorithmus" - was wäre denn ein nicht-mathematischer Algorithmus? --88.65.95.241 21:28, 12. Mär. 2008 (CET)
- Ups, danke für den Hinweis. Curtis Newton ↯ 21:44, 12. Mär. 2008 (CET)
Erfolgreiche Exzellenzkandidatur
Diese Kandidatur läuft vom 13. März bis zum 2. April
RANSAC (Random Sample Consensus, deutsch etwa „Übereinstimmung mit einer zufälligen Stichprobe“) ist ein Algorithmus zur Detektion von Ausreißern und groben Fehlern innerhalb einer Reihe von Messwerten. Auf Grund seiner Robustheit wird er vor allem bei der Auswertung automatischer Messungen vornehmlich im Bereich des maschinellen Sehens eingesetzt. Hier unterstützt RANSAC herkömmliche Verfahren wie die Methode der kleinsten Quadrate, die bei einer größeren Anzahl von Ausreißern meist versagen.
Ein Artikel über einen Algorithmus, der mit lediglich 2 (oder warens 3?) Formeln auskommt. Ich habe den Artikel nach der Lesenswert-Kandidatur nochmals stark überarbeitet (diff). Es ist doch erstaunlich, was man noch so alles findet. Ich denke, jetzt kann auch ein Laie so ziemlich alle Aspekte verstehen. Auf Hinweise während der Kandidatur werde ich natürlich eingehen. Als Hauptautor nicht Neutral, enthalte ich mich selbstverständlich. Curtis Newton ↯ 20:59, 13. Mär. 2008 (CET)
- j ?! 22:05, 13. Mär. 2008 (CET) Pro Besser kann man’s wohl nicht beschreiben. --
- 78.49.192.62 23:27, 13. Mär. 2008 (CET) Neutral: Wieso steht der Klammerhinweis hinter der internen Präsentation? Ist der Klammerhinweis überhaupt wichtig, vor allem in der Einleitung? Ist heute nicht ein ganz schlechtes Wort für Enzyklopädien? --
- Finde ich schon interessant, wo beide zusammen gearbeitet haben. Ich habe es erstmal umgeschrieben. Vielleicht packe ich das auch noch in einen extra Absatz in die Einleitung. Curtis Newton ↯ 06:55, 14. Mär. 2008 (CET)
- Ich habe mal die Einleitung überarbeitet und den kleinen Geschichtsteil in die Einleitung verschoben. Curtis Newton ↯ 10:14, 14. Mär. 2008 (CET)
- Erdbeerquetscher 11:44, 17. Mär. 2008 (CET) Pro Verständlich und kompetent! -
- Mir fiel nur grad was auf: Dabei wird nicht nur die Zahl der fehlerfreien Messwerte maximiert, sondern deren Fehler mit in die Berechnung mit einbezogen. klingt komisch. Überhaupt wäre eine kurze Definition von "Fehlerfreier Wert" ganz hilfreich. -- Ben-Oni 20:01, 19. Mär. 2008 (CET)
- Habe den Abschnitt mal umformuliert. Die zitierte Aussage war eh doppelt. Danke für den Hinweis, jetzt sollte es klarer sein. Curtis Newton ↯ 20:52, 19. Mär. 2008 (CET)
Ich schreibe einfach alles auf, was mir auffällt:
- Wie genau funktioniert der Iterationsschritt? Beeinflussen die vorherigen Schritte einen folgenden Schritt oder wählt der einfach 1000 zufällige Wertepaare und stellt erst zum Schluss das Beste fest? Das wird mir nirgends im Text so richtig klar.
- Die Tabelle (bzw. das ganze Kapitel "Anzahl der Iterationen" verstehe ich nicht: Hängt die Anzahl der notwendigen Iterationsschritte nicht von der Anzahl der Messwerte ab?
- Nur indirekt über das Verhältnis (Anzahl Ausreißer)/Gesamtzahl. Siehe Okdiff. Curtis Newton ↯ 17:17, 24. Mär. 2008 (CET)
- Das ominöse "fehlerfrei" kommt noch ein paarmal vor. Kapitel: "Maximaler Abstand eines Datenpunkts vom Modell", "LO-RANSAC"
- Was für eine "Optimierung" wird beim LO-RANSAC durchgeführt?
Ich bleibe erstmal -- Neutral.Ben-Oni 12:26, 24. Mär. 2008 (CET)
- Danke für die Ergänzungen/Überarbeitungen. Jetzt Ben-Oni 23:11, 24. Mär. 2008 (CET) Pro. --
- Pro Ich kannte den Algorithmus noch nicht, finde die Darstellung aber verständlich und nachvollziehbar. Ob sie vollständig und im Detail korrekt ist, kann ich nicht beurteilen. Ein paar kleine Verbesserungen habe ich noch vorgenommen (ich hoffe es waren solche). Dazu noch ein paar Anmerkungen:
- Ausreißer = Meßwerte, die nicht dem Erwartungswert entsprechen hab ich gelöscht, fand ich irgenwie schwammig/unklar.
- Die mittelwertfreie Normalverteilung hab ich ebenfalls gestrichen. Ich denke, daß hier eine bekannte Standardabweichung ausreicht.
- Den Abschnitt Größe des Consensus set hab ich etwas geändert. Prüf bitte, ob das so gemeint war. Außerdem denke ich, daß der Consensus set (auch oben in der Aufzählung) als letzter Parameter behandelt werden sollte, da die anderen doch wichtiger sind.
- Der Abschnitt Alternativen ist etwas kurz. Er sollte entweder oben an passender Stelle in den Text eingebaut oder erweitert werden (zugrundeliegende Idee, Vor-/Nachteile, Verbreitung). 80.146.62.162 17:38, 25. Mär. 2008 (CET)
- Sieht alles gut aus, danke. Die Alternativen habe ich mal umformuliert in die Einleitung gepackt. Curtis Newton ↯ 19:22, 25. Mär. 2008 (CET)
- Mir ist noch was eingefallen: Die zufällig ausgewählten Meßwerte zur Bestimmung der Modellparameter können sehr ungünstig liegen (z.B. wenn bei einer Linie der Länge 10 die einzelnen Punkte eine Standardabweichung von 0,1 haben und die zwei ausgewählten Punkte auch nur einen Abstand von etwa 0,1 haben). Die Modellparameter sind dann sehr ungenau, denn ihre Standardabweichung, die aus den (angenommenen) Standardabweichungen der Meßwerte nach dem Fehlerfortpflanzungsgesetz berechnet werden kann, ist relativ groß. Wir so etwas bei der Beurteilung der Güte der Modellparameter und des Consensus set berücksichtig? 80.146.61.199 09:27, 26. Mär. 2008 (CET)
- Ich verstehe Dich. Ich kann mich aber nicht erinnern, irgendwo mal gelesen (oder Source gesehen zu haben), dasd das explizit beachtet wird. Der LO-RANSAC-Ansatz geht ja aber in die Richtung. Curtis Newton ↯ 10:16, 26. Mär. 2008 (CET)
Glückwunsch: Vier pro, kein contra --Mautpreller 09:17, 3. Apr. 2008 (CEST)