Diskussion:Belichtungsfusion
Füge neue Diskussionsthemen unten an:
Klicke auf , um ein neues Diskussionsthema zu beginnen.Exposerblending
[Quelltext bearbeiten]Den Artikel kann man wieder wegschmeißen. Exposerblending ist ein simples Verfahren des Tonemappings. Alles was man darüber wissen sollte sollte dort beschrieben werden. Eine Weiterleitung auf Tonemapping wäre äußerst elegant.
- Begründung/Quelle? Tonemapping arbeitet ausgehend von HDR-Daten, dies ist beim hier beschriebenen Verfahren nicht der Fall. --Phrood 21:41, 21. Sep. 2008 (CEST)
- Natürlich sind hier HDR Daten vorhanden. Sie sind nur auf mehrere Dateien/Photshopebenen was auch immer aufgeteilt. Beim Exposure Blending wird nur das DRI und (partielle) Tonemapping in einem Rutsch durchgeführt. Für einen einzelnen Artikel wäre mir das zu wenig. Man könnte es entweder ins Tonemapping einfügen, oder notfalls bei DRI. Raycluster 14:25, 23. Sep. 2008 (CEST)
- Die Gleichung "Exposure Blending = DRI + Tonemapping" ist nicht korrekt, da zu keinem Zeitpunkt des Exposure Blending HDR-Daten (sei es RGBE, LogLuv oder eine andere Kodierung) verarbeitet werden. Sowohl die Erzeugung eines HDR-Bildes aus mehreren Bildern als auch Tonemapping ist kompliziert und nicht durch Exposure Blending angemessen nachzuahmen. -Phrood 19:53, 23. Sep. 2008 (CEST)
- Natürlich sind hier HDR Daten vorhanden. Sie sind nur auf mehrere Dateien/Photshopebenen was auch immer aufgeteilt. Beim Exposure Blending wird nur das DRI und (partielle) Tonemapping in einem Rutsch durchgeführt. Für einen einzelnen Artikel wäre mir das zu wenig. Man könnte es entweder ins Tonemapping einfügen, oder notfalls bei DRI. Raycluster 14:25, 23. Sep. 2008 (CEST)
Sowie eine Belichtungsreihe im Spiel ist sind es immer HDR Daten da jede Veränderung der Belichtungsparameter den Dynamikbereich vergößern. Bei längerer Belichtung wird der Bereich in den dunklen Stellen und bei kürzerer Belichtung der in den hellen Stellen vergrößert. (nicht signierter Beitrag von 84.191.58.47 (Diskussion) 19:48, 23. Feb. 2011 (CET))
- Nein. HDR bedeutet, dass sämtliche Helligkeitsinformationen in einem Bild abgespeichert sind. Ein HDR-Bild kann man aus einer Belichtungsreihe erzeugen, die beiden Begriffe sind aber nicht synonym. Beim Exposure Blending wird aber gerade kein HDR-Bild erzeugt, was nach der Überarbeitung des Artikels nun auch klar werden sollte.--KMic 13:30, 21. Jun. 2011 (CEST)
Software
[Quelltext bearbeiten]Ganz so glücklich bin ich nicht darüber, das der entsprechende Abschnitt gelöscht wurde. Es sollte ja keine Werbung für ein spezielles Programm sein, ich kenne aber halt nur das eine. Prinzipiell fände ich einen (ggf. mit weiteren Programmen ergänzten) Abschnitt "Software" aber gut und sinnvoll, das wird in anderen Artikeln doch ähnlich gehandhabt?--KMic 10:27, 22. Jun. 2011 (CEST)
Vielleicht wäre http://wiki.panotools.org/Enfuse#External_Links ein guter Ausgangspunkt?--KMic 14:18, 22. Jun. 2011 (CEST)
- Ich würde empfehlen, bei Grafik-Software einen neuen Unterpunkt "Exposure-Blending-Software" anzulegen (oder mit HDR-Software zusammenzufügen) und dort die Programme zu erwähnen. Photomatix z.B. beherrscht auch Exposure Blending. Der Artikel kann dann hier unter "Siehe auch" verlinkt werden.
- Der Punkt "Es ist möglich, als Ausgangspunkt für Exposure Blending ein einziges Rohdatenbild zu verwenden." braucht keine Referenzierung (und sicher nicht mit dem Handbuch einer bestimmten Software), weil eine solche Vorgehensweise offensichtlich möglich ist und auch manuell erfolgen kann. Die Frage stellt sich nebenbei, warum man nicht direkt Tonemapping auf das RAW-Bild anwendet.
- Den Link zu "Enfuse Algorithm" würde ich löschen, man erfährt nichts neues gegenüber dem Originalpaper und es sieht nach Werbung aus. --Phrood 18:29, 22. Jun. 2011 (CEST)
- zu 1: Ok, wäre mir auch recht. Dann aber bitte wirklich einen neuen Unterpunkt, wir haben hier in diesem Artikel ja schon genug Probleme, Exposure Blending von HDR zu trennen.
- zu 2: Also ich finde die Aussage nicht so wirklich offensichtlich (und sie ist in dem Handbuch ja auch unter dem Punkt "Common Misconceptions" aufgeführt). Der Beleg mag zwar nicht der Beste sein, aber solange es keinen anderen gibt, würde ich ihn eher drin lassen.
- zu 3: Ok, ersetzt durch einen Link auf das Enfuse-Handbuch, welches eh schon verlinkt ist.--KMic 23:53, 22. Jun. 2011 (CEST)
- "Die Frage stellt sich nebenbei, warum man nicht direkt Tonemapping auf das RAW-Bild anwendet." Gute Frage, warum eigentlich nicht?--KMic 23:56, 22. Jun. 2011 (CEST)
- OK
- OK
- Auch im Enfuse-Handbuch erfährt man nichts neues, der Link auf das Originalpaper reicht. --Phrood 09:06, 23. Jun. 2011 (CEST)
- zu 3: Im Prinzip ja. Im Enfuse-Handbuch wird das ganze Verfahren aber deutlich ausführlicher beschrieben als in dem Paper, daher würde ich den Link gerne im Artikel drin lassen.--KMic 10:52, 23. Jun. 2011 (CEST)
- Vielleicht solltet ihr euch einem anderen Hobby zuwenden. Einem wo man sich besser abreagieren kann!
In diesem Wiki-Beitrag geht es darum, wie man mit einer digitalen Kamera, Bilder erzeugt. Macht euch doch einen Kopp! Es gibt genug Software und es gibt Google. Seid ihr bescheuert? Schreibt eure eigene Anleitung, statt ständig zu meckern!
Grüße --88.74.90.34 02:56, 4. Nov. 2012 (CET)
Verwandtschaft zu Focus stacking
[Quelltext bearbeiten]Ich sehe eine Verwandtschaft zwischen "Exposure blending" und "Focus stacking" sehr wohl gegeben, alleine schon deshalb, weil ein und der selbe Algorithmus (nämlich der des Programms enfuse) für beide Probleme angewandt werden kann. Einmal werden halt die korrekt belichteten Bildbereiche miteinander kombiniert, ein anderes mal die scharfgestellten Bildbereiche. Ich kann hier keinen wirklichen Unterschied feststellen (außer in der Charakterisierung der zu verschmelzenden Bildausschnitte), wiese sollen beide Verfahren "komplett anders" sein?--KMic 10:35, 22. Jun. 2011 (CEST)
- Dass der gleiche Algorithmus verwendet wird, ist mir neu. Beim Focus stacking wird eine FFT durchgeführt, um die unscharfen Bereiche zu erkennen. Im Gegenzug muss die Belichtung nicht angepasst werden, was ja der Kern des Exposure Blending ist. Enfuse kann laut Handbuch zwar beides, das bedeutet aber nicht, dass technische Überschneidungen existieren. --Phrood 18:23, 22. Jun. 2011 (CEST)
- Wenn ich die Verfahren richtig verstanden habe, so bestehen diese aus zwei Teilschritten. Schritt 1: Erkenne in jedem Bild des Bildstapels an Hand eines bestimmten Kriteriums die "guten" Bildbereiche. "Gut" bedeutet hier z.B. "korrekt belichtet" oder "scharf fokussiert". Schritt 2: Erstelle ein Gesamtbild, dass im wesentlichen nur aus den "guten" Bildbereichen der einzelnen Teilbilder besteht. Focus stacking und Exposure Blending unterscheiden sich in Schritt 1, Schritt 2 ist identisch. Daher sind sie verwandt. Das Enfuse beide Techniken beherrscht, ist tatsächlich kein Beleg für diese These, wohl aber die Tatsache, dass in beiden Fällen der gleiche Algorithmus verwendet wird. Vergleiche hierzu insbesondere in dem Mertens-Paper die Abschnitte 3.1 "Quality Measures" und 3.2 "Fusion".--KMic 00:17, 23. Jun. 2011 (CEST)
- Mertens verwendet einen einfachen per-Pixel-gewichteten Filter zur Fusion (jedem Pixel wird ein Wert zugewiesen, der bestimmt, welchen Anteil er am Gesamtbild haben soll -- ähnlich wie ein Alphakanal). Bei der im Paper angegebenen Seite zum Focus Stacking [1] wird eine binäre Entscheidung verwendet. Beides sind aber allgemeine Verfahren und nicht spezifisch für Exposure Blending oder Focus Stacking. Der Leser könnte auf die Idee kommen, dass Exposure Blending und Focus Stacking im Kern gleich arbeiten, obwohl sie dies nicht tun. Die Gemeinsamkeit ist, dass sie mehrere Einzelbilder als Eingabe verwenden und ein einziges Bild ausgeben, aber nicht mehr. --Phrood 09:15, 23. Jun. 2011 (CEST)
- Bei Enfuse gibt es den Parameter "--hard-mask", der ebenfalls eine binäre Entscheidung erzwingt (wird im Handbuch in Abschn. 4.1.2 beschrieben, nicht aber im Paper). Dies führt aber nicht zu einem neuen Verfahren. Kann es sein, dass du den oben beschriebenen Schritt 1 als "Kern" der Verfahren ansiehst? Für mich ist Schritt zwei, also die eigentliche Kombination der Einzelbilder, der Kern der Verfahren. Ich denke, diese Ansicht ist auch berechtigt, da die Bestimmung der "Quality Measure" (z.B. der "Well-exposedness") eher als trivial zu bezeichnen ist (vgl. Mertens, S.3), der naive Ansatz der Kombination der Einzelbilder aber nicht zum Erfolg führt (vgl. ebenfalls Mertens, S.3), sondern weiter gehende Überlegungen erfordert (beim Mertens-Algorithmus etwa einen "Multiresolution-Ansatz"). Um es nochmal deutlich zu sagen: Schritt 2 ist für mich die charakterisierende Gemeinsamkeit beider Verfahren, Schritt 1 ist eher (keinesfalls unwichtiges!) Beiwerk.--KMic 11:34, 23. Jun. 2011 (CEST)
- Habe das oben gesagte in den Artikel eingebaut, ich hoffe es ist nun klarer.--KMic 11:53, 23. Jun. 2011 (CEST)
- Mertens verwendet einen einfachen per-Pixel-gewichteten Filter zur Fusion (jedem Pixel wird ein Wert zugewiesen, der bestimmt, welchen Anteil er am Gesamtbild haben soll -- ähnlich wie ein Alphakanal). Bei der im Paper angegebenen Seite zum Focus Stacking [1] wird eine binäre Entscheidung verwendet. Beides sind aber allgemeine Verfahren und nicht spezifisch für Exposure Blending oder Focus Stacking. Der Leser könnte auf die Idee kommen, dass Exposure Blending und Focus Stacking im Kern gleich arbeiten, obwohl sie dies nicht tun. Die Gemeinsamkeit ist, dass sie mehrere Einzelbilder als Eingabe verwenden und ein einziges Bild ausgeben, aber nicht mehr. --Phrood 09:15, 23. Jun. 2011 (CEST)
- Wenn ich die Verfahren richtig verstanden habe, so bestehen diese aus zwei Teilschritten. Schritt 1: Erkenne in jedem Bild des Bildstapels an Hand eines bestimmten Kriteriums die "guten" Bildbereiche. "Gut" bedeutet hier z.B. "korrekt belichtet" oder "scharf fokussiert". Schritt 2: Erstelle ein Gesamtbild, dass im wesentlichen nur aus den "guten" Bildbereichen der einzelnen Teilbilder besteht. Focus stacking und Exposure Blending unterscheiden sich in Schritt 1, Schritt 2 ist identisch. Daher sind sie verwandt. Das Enfuse beide Techniken beherrscht, ist tatsächlich kein Beleg für diese These, wohl aber die Tatsache, dass in beiden Fällen der gleiche Algorithmus verwendet wird. Vergleiche hierzu insbesondere in dem Mertens-Paper die Abschnitte 3.1 "Quality Measures" und 3.2 "Fusion".--KMic 00:17, 23. Jun. 2011 (CEST)
Umbenennung des Artikels
[Quelltext bearbeiten]Würde irgendetwas dagegen sprechen, diesen Artikel nach "Belichtungsfusion" zu verschieben? Ich fände in der deutschsprachigen Wikipedia einen deutschen Titel angebrachter, und "Belichtungsfusion" scheint der gängige Begriff zu sein.--KMic 15:32, 23. Jun. 2011 (CEST)
- Erledigt.--KMic 18:04, 11. Jul. 2011 (CEST)