Diskussion:Boosting
exponentielle Verlustfunktion
[Quelltext bearbeiten]- " „exponentielle Verlustfunktion“ L ": mathematisch überdiddelt? soweit ich das sehe werden sowieso nur binär Werte (falsch) bzw. (richtig) aufsummiert. Müsste zum exakt selben Lern/Optimierungs-Effekt ohne die e-Funktion führen. einfach minimieren - oder auch "Anzahl der Richtigen"/N ? Die nichtlineare e-Bewertung o.ä würde nur dann (vielleicht) Sinn machen, wenn zumindest einige der Elementar-Klassifikatoren float (z.B. 100% gut stufenlos bis 100% schlecht) anstatt f1, ..., fm: M → {+1, -1} sind. --213.54.215.126 15:31, 15. Sep 2006 (CEST)
Regression =
[Quelltext bearbeiten]- Was ist mit Boosting für Regression? Das wird im Artikel nicht mal erwähnt dass es das auch gibt! --Rene 13:10, 15. Mär 2009
- @Rene: Wegen "Boosting für Regression": Kannst du das belegen? Dann Wikipedia:Sei mutig :-) --Martin Thoma 13:16, 20. Nov. 2015 (CET)
- Habe es eingefügt, siehe XGBoost
schwache Klassifikatoren
[Quelltext bearbeiten]Im Kapitel 'Funktionsweise' wird zunächst der Begriff "schwache Klassifikatoren" eingeführt, einen Absatz weiter im Abschnitt 'Grundlagen' jedoch ist dann von "primitiven Klassifikatoren" die Rede. Sollte der Artikel nicht bei der Nomenklatur bleiben, die er selbst einführt? Falls beide Begriffe geläufig sind (ich selbst bin Anfänger auf dem Gebiet), sollte das bei der Begriffsdefinition oben wahrscheinlich erwähnt werden. --178.199.119.140 19:08, 25. Dez. 2012 (CET)
Überanpassung
[Quelltext bearbeiten]- "„Boosting ist sehr anfällig für Überanpassung„": Das stimmt nicht. Shapire zeigt in [1] das der Generalisierungsfehler unabhaenging von der Anzahl der Boostingrunden ist. Boosting ist nicht anfällig für Überanpassung. Aber anfällig bei verrauschten oder falsch klassifizierten Trainingsdaten. Ckeller 15:38, 22. Mär. 2007 (CET)
- Artikel, wieso es beim Training nicht zur Überanpassung kommt: "Boosting the margin: A new explanation for the effectiveness of voting methods"
- Das hat mich beim Lesen auch direkt stutzig gemacht. Da anscheinend auch andere der Meinung sind, entferne ich den Absatz. Besser keine Info als falsche Info. (Neue Info am besten direkt mit Nachweis.) --Kraymer 21:54, 19. Mai 2011 (CEST)
- @Kraymer:, @Ckeller: Das hat sich erledigt, oder? --Martin Thoma 13:14, 20. Nov. 2015 (CET)
Quellenangabe
[Quelltext bearbeiten]Ist eine anderssprachige Wikipedia wirklich eine zugelassene Quellenangabe? (nicht signierter Beitrag von Gidoca (Diskussion | Beiträge) 14:34, 18. Aug. 2010 (CEST))
- @Gidoca: Das scheint nicht mehr der Fall zu sein. Das ist also erledigt, oder?
Fokus auf Klassifikation in zwei Klassen
[Quelltext bearbeiten]Ist Boosting wiklich so auf die Erzeugung von binären Klassifikatoren beschränkt? Ich finde dazu kaum Belege in der Literatur. Beispiel A Short Introduction to Boosting. Der Binäre Fall ist natürlich der einfachste Ausgangspunkt und für eine theoretische Betrachtung gut geeignet aber Boosting ist nicht darauf beschränkt. Der Artikel vermittelt hier einen falschen Eindruck finde ich. Bin aber auch neu in diesem Feld. --TMSigma (Diskussion) 15:29, 14. Jun. 2016 (CEST)
Boosting kann auch für Regression verwendet werden, vgl XGBoostRegressor. biggerj1 (Diskussion) 19:53, 12. Dez. 2022 (CET)