Diskussion:Belichtungsfusion

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 12 Jahren von 88.74.90.34 in Abschnitt Software
Zur Navigation springen Zur Suche springen
Diese Diskussionsseite dient dazu, Verbesserungen am Artikel „Belichtungsfusion“ zu besprechen. Persönliche Betrachtungen zum Thema gehören nicht hierher. Für allgemeine Wissensfragen gibt es die Auskunft.

Füge neue Diskussionsthemen unten an:

Klicke auf Abschnitt hinzufügen, um ein neues Diskussionsthema zu beginnen.

Exposerblending

[Quelltext bearbeiten]

Den Artikel kann man wieder wegschmeißen. Exposerblending ist ein simples Verfahren des Tonemappings. Alles was man darüber wissen sollte sollte dort beschrieben werden. Eine Weiterleitung auf Tonemapping wäre äußerst elegant.

Begründung/Quelle? Tonemapping arbeitet ausgehend von HDR-Daten, dies ist beim hier beschriebenen Verfahren nicht der Fall. --Phrood 21:41, 21. Sep. 2008 (CEST)Beantworten
Natürlich sind hier HDR Daten vorhanden. Sie sind nur auf mehrere Dateien/Photshopebenen was auch immer aufgeteilt. Beim Exposure Blending wird nur das DRI und (partielle) Tonemapping in einem Rutsch durchgeführt. Für einen einzelnen Artikel wäre mir das zu wenig. Man könnte es entweder ins Tonemapping einfügen, oder notfalls bei DRI. Raycluster 14:25, 23. Sep. 2008 (CEST)Beantworten
Die Gleichung "Exposure Blending = DRI + Tonemapping" ist nicht korrekt, da zu keinem Zeitpunkt des Exposure Blending HDR-Daten (sei es RGBE, LogLuv oder eine andere Kodierung) verarbeitet werden. Sowohl die Erzeugung eines HDR-Bildes aus mehreren Bildern als auch Tonemapping ist kompliziert und nicht durch Exposure Blending angemessen nachzuahmen. -Phrood 19:53, 23. Sep. 2008 (CEST)Beantworten

Sowie eine Belichtungsreihe im Spiel ist sind es immer HDR Daten da jede Veränderung der Belichtungsparameter den Dynamikbereich vergößern. Bei längerer Belichtung wird der Bereich in den dunklen Stellen und bei kürzerer Belichtung der in den hellen Stellen vergrößert. (nicht signierter Beitrag von 84.191.58.47 (Diskussion) 19:48, 23. Feb. 2011 (CET)) Beantworten

Nein. HDR bedeutet, dass sämtliche Helligkeitsinformationen in einem Bild abgespeichert sind. Ein HDR-Bild kann man aus einer Belichtungsreihe erzeugen, die beiden Begriffe sind aber nicht synonym. Beim Exposure Blending wird aber gerade kein HDR-Bild erzeugt, was nach der Überarbeitung des Artikels nun auch klar werden sollte.--KMic 13:30, 21. Jun. 2011 (CEST)Beantworten

Software

[Quelltext bearbeiten]

Ganz so glücklich bin ich nicht darüber, das der entsprechende Abschnitt gelöscht wurde. Es sollte ja keine Werbung für ein spezielles Programm sein, ich kenne aber halt nur das eine. Prinzipiell fände ich einen (ggf. mit weiteren Programmen ergänzten) Abschnitt "Software" aber gut und sinnvoll, das wird in anderen Artikeln doch ähnlich gehandhabt?--KMic 10:27, 22. Jun. 2011 (CEST)Beantworten

Vielleicht wäre http://wiki.panotools.org/Enfuse#External_Links ein guter Ausgangspunkt?--KMic 14:18, 22. Jun. 2011 (CEST)Beantworten

  • Ich würde empfehlen, bei Grafik-Software einen neuen Unterpunkt "Exposure-Blending-Software" anzulegen (oder mit HDR-Software zusammenzufügen) und dort die Programme zu erwähnen. Photomatix z.B. beherrscht auch Exposure Blending. Der Artikel kann dann hier unter "Siehe auch" verlinkt werden.
  • Der Punkt "Es ist möglich, als Ausgangspunkt für Exposure Blending ein einziges Rohdatenbild zu verwenden." braucht keine Referenzierung (und sicher nicht mit dem Handbuch einer bestimmten Software), weil eine solche Vorgehensweise offensichtlich möglich ist und auch manuell erfolgen kann. Die Frage stellt sich nebenbei, warum man nicht direkt Tonemapping auf das RAW-Bild anwendet.
  • zu 1: Ok, wäre mir auch recht. Dann aber bitte wirklich einen neuen Unterpunkt, wir haben hier in diesem Artikel ja schon genug Probleme, Exposure Blending von HDR zu trennen.
  • zu 2: Also ich finde die Aussage nicht so wirklich offensichtlich (und sie ist in dem Handbuch ja auch unter dem Punkt "Common Misconceptions" aufgeführt). Der Beleg mag zwar nicht der Beste sein, aber solange es keinen anderen gibt, würde ich ihn eher drin lassen.
  • zu 3: Ok, ersetzt durch einen Link auf das Enfuse-Handbuch, welches eh schon verlinkt ist.--KMic 23:53, 22. Jun. 2011 (CEST)Beantworten
"Die Frage stellt sich nebenbei, warum man nicht direkt Tonemapping auf das RAW-Bild anwendet." Gute Frage, warum eigentlich nicht?--KMic 23:56, 22. Jun. 2011 (CEST)Beantworten
  1. OK
  2. OK
  3. Auch im Enfuse-Handbuch erfährt man nichts neues, der Link auf das Originalpaper reicht. --Phrood 09:06, 23. Jun. 2011 (CEST)Beantworten
zu 3: Im Prinzip ja. Im Enfuse-Handbuch wird das ganze Verfahren aber deutlich ausführlicher beschrieben als in dem Paper, daher würde ich den Link gerne im Artikel drin lassen.--KMic 10:52, 23. Jun. 2011 (CEST)Beantworten
Vielleicht solltet ihr euch einem anderen Hobby zuwenden. Einem wo man sich besser abreagieren kann!

In diesem Wiki-Beitrag geht es darum, wie man mit einer digitalen Kamera, Bilder erzeugt. Macht euch doch einen Kopp! Es gibt genug Software und es gibt Google. Seid ihr bescheuert? Schreibt eure eigene Anleitung, statt ständig zu meckern!

Grüße --88.74.90.34 02:56, 4. Nov. 2012 (CET)Beantworten

Verwandtschaft zu Focus stacking

[Quelltext bearbeiten]

Ich sehe eine Verwandtschaft zwischen "Exposure blending" und "Focus stacking" sehr wohl gegeben, alleine schon deshalb, weil ein und der selbe Algorithmus (nämlich der des Programms enfuse) für beide Probleme angewandt werden kann. Einmal werden halt die korrekt belichteten Bildbereiche miteinander kombiniert, ein anderes mal die scharfgestellten Bildbereiche. Ich kann hier keinen wirklichen Unterschied feststellen (außer in der Charakterisierung der zu verschmelzenden Bildausschnitte), wiese sollen beide Verfahren "komplett anders" sein?--KMic 10:35, 22. Jun. 2011 (CEST)Beantworten

Dass der gleiche Algorithmus verwendet wird, ist mir neu. Beim Focus stacking wird eine FFT durchgeführt, um die unscharfen Bereiche zu erkennen. Im Gegenzug muss die Belichtung nicht angepasst werden, was ja der Kern des Exposure Blending ist. Enfuse kann laut Handbuch zwar beides, das bedeutet aber nicht, dass technische Überschneidungen existieren. --Phrood 18:23, 22. Jun. 2011 (CEST)Beantworten
Wenn ich die Verfahren richtig verstanden habe, so bestehen diese aus zwei Teilschritten. Schritt 1: Erkenne in jedem Bild des Bildstapels an Hand eines bestimmten Kriteriums die "guten" Bildbereiche. "Gut" bedeutet hier z.B. "korrekt belichtet" oder "scharf fokussiert". Schritt 2: Erstelle ein Gesamtbild, dass im wesentlichen nur aus den "guten" Bildbereichen der einzelnen Teilbilder besteht. Focus stacking und Exposure Blending unterscheiden sich in Schritt 1, Schritt 2 ist identisch. Daher sind sie verwandt. Das Enfuse beide Techniken beherrscht, ist tatsächlich kein Beleg für diese These, wohl aber die Tatsache, dass in beiden Fällen der gleiche Algorithmus verwendet wird. Vergleiche hierzu insbesondere in dem Mertens-Paper die Abschnitte 3.1 "Quality Measures" und 3.2 "Fusion".--KMic 00:17, 23. Jun. 2011 (CEST)Beantworten
Mertens verwendet einen einfachen per-Pixel-gewichteten Filter zur Fusion (jedem Pixel wird ein Wert zugewiesen, der bestimmt, welchen Anteil er am Gesamtbild haben soll -- ähnlich wie ein Alphakanal). Bei der im Paper angegebenen Seite zum Focus Stacking [1] wird eine binäre Entscheidung verwendet. Beides sind aber allgemeine Verfahren und nicht spezifisch für Exposure Blending oder Focus Stacking. Der Leser könnte auf die Idee kommen, dass Exposure Blending und Focus Stacking im Kern gleich arbeiten, obwohl sie dies nicht tun. Die Gemeinsamkeit ist, dass sie mehrere Einzelbilder als Eingabe verwenden und ein einziges Bild ausgeben, aber nicht mehr. --Phrood 09:15, 23. Jun. 2011 (CEST)Beantworten
Bei Enfuse gibt es den Parameter "--hard-mask", der ebenfalls eine binäre Entscheidung erzwingt (wird im Handbuch in Abschn. 4.1.2 beschrieben, nicht aber im Paper). Dies führt aber nicht zu einem neuen Verfahren. Kann es sein, dass du den oben beschriebenen Schritt 1 als "Kern" der Verfahren ansiehst? Für mich ist Schritt zwei, also die eigentliche Kombination der Einzelbilder, der Kern der Verfahren. Ich denke, diese Ansicht ist auch berechtigt, da die Bestimmung der "Quality Measure" (z.B. der "Well-exposedness") eher als trivial zu bezeichnen ist (vgl. Mertens, S.3), der naive Ansatz der Kombination der Einzelbilder aber nicht zum Erfolg führt (vgl. ebenfalls Mertens, S.3), sondern weiter gehende Überlegungen erfordert (beim Mertens-Algorithmus etwa einen "Multiresolution-Ansatz"). Um es nochmal deutlich zu sagen: Schritt 2 ist für mich die charakterisierende Gemeinsamkeit beider Verfahren, Schritt 1 ist eher (keinesfalls unwichtiges!) Beiwerk.--KMic 11:34, 23. Jun. 2011 (CEST)Beantworten
Habe das oben gesagte in den Artikel eingebaut, ich hoffe es ist nun klarer.--KMic 11:53, 23. Jun. 2011 (CEST)Beantworten

Umbenennung des Artikels

[Quelltext bearbeiten]

Würde irgendetwas dagegen sprechen, diesen Artikel nach "Belichtungsfusion" zu verschieben? Ich fände in der deutschsprachigen Wikipedia einen deutschen Titel angebrachter, und "Belichtungsfusion" scheint der gängige Begriff zu sein.--KMic 15:32, 23. Jun. 2011 (CEST)Beantworten

Erledigt.--KMic 18:04, 11. Jul. 2011 (CEST)Beantworten