Regression der partiellen kleinsten Quadrate

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Die Regression der partiellen kleinsten Quadrate (Partielle Kleinste-Quadrate-Regression, PLS)[1] ist ein Regressionsmodell ähnlich der Hauptkomponentenregression und ebenfalls ein reduced-rank-regression-Modell[2], bei dem die Eingabe iterativ in latente Räume projiziert wird, welche möglichst korreliert mit dem Ausgaberaum sind. Aus diesen Projektionen werden mehrere hierarchisch aufgebaute lineare Regressionsmodelle aufgebaut.

Kernidee des Algorithmus

[Bearbeiten | Quelltext bearbeiten]
Kernidee der Regression der partiellen kleinsten Quadrate. Die Loading-Vektoren im Ein- und Ausgaberaum sind rot gezeichnet (hier zur besseren Sichtbarkeit nicht normiert). Nimmt zu (unabhängig von ), so nehmen und zu.

Betrachtet man gepaarte Zufallsstichproben . als gegeben, so sucht die Regression der partiellen kleinsten Quadrate im ersten Schritt die normierte Richtung , so, dass die Korrelation maximiert wird. Es gilt: mit Korrelationsmatrix im letzten Term und ,

Da die gepaarten Stichproben zufällig aus der gemeinsamen Verteilung gezogen wurden (also gilt), kann der Erwartungswert durch den Stichprobenmittelwert geschätzt werden:

  • ist Input-Loading-Vektor im -ten Schritt
  • ist der Output-Loading-Vektor im -ten Schritt
  • die Projektion ist der Input-Score der Stichprobe
  • die Projektion ist der Output-Score der Stichprobe

Für den -ten Schritt werden die Daten im Eingaberaum „deflated“ (jedoch nicht im Ausgaberaum) und dann erneut Richtungen , gesucht:

Dieser Algorithmus kann in Matrix-Schreibweise dargestellt werden: Dazu werden die Beobachtungen gesammelt in einer Matrix der Dimension (mit der Zahl der Merkmale im Eingaberaum) dargestellt, sodass jede Zeile der Matrix eine Beobachtung darstellt (analog für die Beobachtungen ). Es gilt somit: Für jede Beobachtung gilt nun, dass sie in der Basis der Loading-Vektoren dargestellt werden kann , mit einem Restterm . Für das Matrixelement gilt daher , bzw. für die Matrix:

,
analog für .

Manchmal wird statt der Matrix V auch mit ihrer transponierten gearbeitet, dann gilt:

und

Nach Auffinden der Loading-Vektoren findet häufig eine Interpretation der Loading-Vektoren sowie der Input-Scores statt.

Im Biplot werden die Input-Scores ausgewählter PLS-Schritte dargestellt, z. B. j=1 und j=2 („Component 1“ und „Component 2“ im Bild). Dadurch entsteht eine Punkt-Wolke der Projektionen der (in höheren Schritten durch Deflation modifizierten) Eingabedaten auf die Richtungen . Die Pfeile im Biplot werden durch die Projektionen der künstlichen Daten , und der jeweils korrespondierenden Input-Scores erhalten. Da diese künstlichen Daten jeweils ein Merkmal one-hot encoden, kann ihnen eindeutig ein Merkmal zugewiesen werden, welches im Biplot oft direkt an den Pfeil geschrieben wird.

Biplot als Ergebnis der PLS: die gestreuten Punkte sind die Input-Scores der Beobachtungen. Pfeile zeigen die Beiträge jedes Features zum ersten und zweiten Input-Loading-Vektor

Im Vergleich zur Hauptkomponentenanalyse werden nicht die Richtungen maximaler Varianz im Eingaberaum gefunden, sondern die Richtungen maximaler Korrelation von Ein- und Ausgabedaten. Man könnte sonst beispielsweise x-Variablen eine hohe Gewichtung geben, die eine hohe Varianz besitzen, jedoch gar nicht mit der Zielvariablen korrelieren.

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. Svante Wold, Michael Sjöström, Lennart Eriksson: PLS-regression: a basic tool of chemometrics. In: Chemometrics and Intelligent Laboratory Systems. Band 58, Nr. 2, Oktober 2001, S. 109–130, doi:10.1016/S0169-7439(01)00155-1 (elsevier.com [abgerufen am 27. April 2022]).
  2. https://books.google.de/books?id=GmnpCAAAQBAJ&pg=PA2