Die Regression der partiellen kleinsten Quadrate (Partielle Kleinste-Quadrate-Regression, PLS)[1] ist ein Regressionsmodell ähnlich der Hauptkomponentenregression und ebenfalls ein reduced-rank-regression-Modell[2], bei dem die Eingabe iterativ in latente Räume projiziert wird, welche möglichst korreliert mit dem Ausgaberaum sind. Aus diesen Projektionen werden mehrere hierarchisch aufgebaute lineare Regressionsmodelle aufgebaut.
Betrachtet man gepaarte Zufallsstichproben.
als gegeben, so sucht die Regression der partiellen kleinsten Quadrate im ersten Schritt die normierte Richtung , so, dass die Korrelation maximiert wird. Es gilt:
mit Korrelationsmatrix im letzten Term und ,
Da die gepaarten Stichproben zufällig aus der gemeinsamen Verteilung gezogen wurden (also gilt), kann der Erwartungswert durch den Stichprobenmittelwert geschätzt werden:
ist Input-Loading-Vektor im -ten Schritt
ist der Output-Loading-Vektor im -ten Schritt
die Projektion ist der Input-Score der Stichprobe
die Projektion ist der Output-Score der Stichprobe
Dieser Artikel oder Abschnitt bedarf einer grundsätzlichen Überarbeitung. Näheres sollte auf der Diskussionsseite angegeben sein. Bitte hilf mit, ihn zu verbessern, und entferne anschließend diese Markierung.
Für den -ten Schritt werden die Daten im Eingaberaum „deflated“ (jedoch nicht im Ausgaberaum) und dann erneut Richtungen , gesucht:
Dieser Algorithmus kann in Matrix-Schreibweise dargestellt werden:
Dazu werden die Beobachtungen gesammelt in einer Matrix der Dimension (mit der Zahl der Merkmale im Eingaberaum) dargestellt, sodass jede Zeile der Matrix eine Beobachtung darstellt (analog für die Beobachtungen ). Es gilt somit:
Für jede Beobachtung gilt nun, dass sie in der Basis der Loading-Vektoren dargestellt werden kann
, mit einem Restterm .
Für das Matrixelement gilt daher
, bzw. für die Matrix:
,
analog für .
Manchmal wird statt der Matrix V auch mit ihrer transponierten gearbeitet, dann gilt:
Nach Auffinden der Loading-Vektoren findet häufig eine Interpretation der Loading-Vektoren sowie der Input-Scores statt.
Im Biplot werden die Input-Scores ausgewählter PLS-Schritte dargestellt, z. B. j=1 und j=2 („Component 1“ und „Component 2“ im Bild). Dadurch entsteht eine Punkt-Wolke der Projektionen der (in höheren Schritten durch Deflation modifizierten) Eingabedaten auf die Richtungen .
Die Pfeile im Biplot werden durch die Projektionen der künstlichen Daten , und der jeweils korrespondierenden Input-Scores erhalten. Da diese künstlichen Daten jeweils ein Merkmal one-hot encoden, kann ihnen eindeutig ein Merkmal zugewiesen werden, welches im Biplot oft direkt an den Pfeil geschrieben wird.
Im Vergleich zur Hauptkomponentenanalyse werden nicht die Richtungen maximaler Varianz im Eingaberaum gefunden, sondern die Richtungen maximaler Korrelation von Ein- und Ausgabedaten. Man könnte sonst beispielsweise x-Variablen eine hohe Gewichtung geben, die eine hohe Varianz besitzen, jedoch gar nicht mit der Zielvariablen korrelieren.
↑Svante Wold, Michael Sjöström, Lennart Eriksson: PLS-regression: a basic tool of chemometrics. In: Chemometrics and Intelligent Laboratory Systems. Band58, Nr.2, Oktober 2001, S.109–130, doi:10.1016/S0169-7439(01)00155-1 (elsevier.com [abgerufen am 27. April 2022]).