Regresja częściowych najmniejszych kwadratów — Partial least squares regression
Część serii na |
Analiza regresji |
---|
Modele |
Oszacowanie |
Tło |
Regresja częściowych najmniejszych kwadratów ( regresja PLS ) jest metodą statystyczną , która ma pewien związek z regresją głównych składowych ; zamiast znajdowania hiperpłaszczyzn o maksymalnej wariancji między odpowiedzią a zmiennymi niezależnymi, znajduje model regresji liniowej , rzutując zmienne przewidywane i zmienne obserwowalne na nową przestrzeń. Ponieważ zarówno dane X, jak i Y są rzutowane na nowe przestrzenie, rodzina metod PLS jest znana jako dwuliniowe modele czynnikowe. Analiza dyskryminacyjna cząstkowych najmniejszych kwadratów (PLS-DA) jest wariantem stosowanym, gdy Y jest kategoryczne.
PLS służy do znajdowania podstawowych relacji między dwiema macierzami ( X i Y ), tj. podejścia ze zmienną latentną do modelowania struktur kowariancji w tych dwóch przestrzeniach. Model PLS spróbuje znaleźć kierunek wielowymiarowy w przestrzeni X, który wyjaśnia maksymalny kierunek wariancji wielowymiarowej w przestrzeni Y. Regresja PLS jest szczególnie odpowiednia, gdy macierz predyktorów ma więcej zmiennych niż obserwacji oraz gdy występuje wielokoliniowość między wartościami X. Natomiast standardowa regresja w tych przypadkach zawiedzie (chyba że jest uregulowana ).
Częściowe najmniejsze kwadraty wprowadził szwedzki statystyk Herman OA Wold , który następnie opracował ją wraz z synem Svante Woldem. Alternatywnym terminem dla PLS (i bardziej poprawnym według Svante Wolda) jest projekcja na struktury ukryte , ale w wielu obszarach nadal dominuje termin cząstkowych najmniejszych kwadratów . Chociaż pierwotne zastosowania dotyczyły nauk społecznych, regresja PLS jest obecnie najszerzej stosowana w chemometrii i dziedzinach pokrewnych. Znajduje również zastosowanie w bioinformatyce , sensometrii , neuronauce i antropologii .
Model bazowy
Ogólny model leżący u podstaw wielowymiarowego PLS to
gdzie X jest macierzą predyktorów, Y jest macierzą odpowiedzi; T i U są macierzami, które są odpowiednio projekcjami X ( wynik X , macierz składowa lub czynnikowa ) i projekcjami Y ( wyniki Y ); P i Q to odpowiednio i ortogonalne macierze obciążenia ; a macierze E i F są terminami błędu, zakładanymi jako niezależne losowe zmienne normalne o identycznym rozkładzie. Rozkłady X i Y są dokonywane tak, aby zmaksymalizować kowariancję między T i U .
Algorytmy
Istnieje szereg wariantów PLS do szacowania macierzy współczynnika i obciążenia T, U, P i Q . Większość z nich buduje szacunki regresji liniowej między X i Y jako . Niektóre algorytmy PLS są odpowiednie tylko w przypadku, gdy Y jest wektorem kolumnowym, podczas gdy inne zajmują się ogólnym przypadkiem macierzy Y . Algorytmy różnią się również tym, czy szacują macierz czynników T jako macierz ortogonalną (czyli ortonormalną ), czy nie. Ostateczna prognoza będzie taka sama dla wszystkich tych odmian PLS, ale składniki będą się różnić.
PLS1
PLS1 jest szeroko stosowany algorytm odpowiednie dla wektora Y przypadku. Szacuje T jako macierz ortonormalną. W pseudokodzie jest to wyrażone poniżej (wielkie litery to macierze, małe litery to wektory, jeśli są indeksowane w indeksie górnym, a skalary, jeśli są indeksowane)
1 function PLS1(X, y, l) 2 3 , an initial estimate of w. 4 for to 5 6 (note this is a scalar) 7 8 9 (note this is a scalar) 10 if 11 , break the for loop 12 if 13 14 15 end for 16 define W to be the matrix with columns . Do the same to form the P matrix and q vector. 17 18 19 return
Ta forma algorytmu nie wymaga centrowania wejść X i Y , ponieważ jest to realizowane domyślnie przez algorytm. W algorytmie tym występuje „deflacja” macierzy X (odejmowanie ), ale deflacja wektora y nie jest wykonywana, ponieważ nie jest konieczna (można wykazać, że deflacja y daje takie same wyniki, jak brak deflacji). Zmienna podawana przez użytkownika l jest limitem liczby czynników ukrytych w regresji; jeśli jest równy rangowi macierzy X , algorytm da oszacowania regresji metodą najmniejszych kwadratów dla B i
Rozszerzenia
W 2002 roku opublikowano nową metodę nazwaną rzutami ortogonalnymi na struktury latentne (OPLS). W OPLS dane zmiennych ciągłych są dzielone na informacje predykcyjne i nieskorelowane. Prowadzi to do lepszej diagnostyki, a także do łatwiejszej interpretacji wizualizacji. Jednak zmiany te tylko poprawiają interpretowalność, a nie przewidywalność modeli PLS. L-PLS rozszerza regresję PLS do 3 połączonych bloków danych. Podobnie OPLS-DA (Analiza Dyskryminacyjna) może być zastosowana podczas pracy ze zmiennymi dyskretnymi, jak w badaniach klasyfikacyjnych i biomarkerowych.
W 2015 roku metoda cząstkowych najmniejszych kwadratów była związana z procedurą zwaną trójprzebiegowym filtrem regresji (3PRF). Zakładając, że liczba obserwacji i zmiennych jest duża, 3PRF (a zatem PLS) jest asymptotycznie normalny dla „najlepszej” prognozy wynikającej z liniowego modelu czynnika ukrytego. W danych giełdowych wykazano, że PLS zapewnia dokładne prognozy poza próbą dotyczące zwrotów i wzrostu przepływów pieniężnych.
Wersja PLS oparta na dekompozycji wartości singularnej (SVD) zapewnia wydajną pamięć, która może być wykorzystana do rozwiązywania problemów wielowymiarowych, takich jak powiązanie milionów markerów genetycznych z tysiącami funkcji obrazowania w genetyce obrazowania na sprzęcie klasy konsumenckiej.
Korelacja PLS (PLSC) to kolejna metodologia związana z regresją PLS, która została wykorzystana w neuroobrazowaniu, a ostatnio w naukach o sporcie, do ilościowego określenia siły związku między zestawami danych. Zazwyczaj PLSC dzieli dane na dwa bloki (podgrupy), z których każdy zawiera jedną lub więcej zmiennych, a następnie wykorzystuje dekompozycję według wartości osobliwych (SVD) w celu ustalenia siły jakiegokolwiek związku (tj. ilości udostępnianych informacji), które mogą istnieć między dwie podgrupy składowe. Czyni to za pomocą SVD do określenia bezwładności (tj. sumy wartości osobliwych) macierzy kowariancji rozważanych podgrup.
Zobacz też
- Korelacja kanoniczna
- Eksploracja danych
- Regresja Deminga
- Ekstrakcja funkcji
- Nauczanie maszynowe
- Wieloliniowe uczenie się podprzestrzeni
- Modelowanie ścieżki częściowej najmniejszych kwadratów
- Analiza głównych składowych
- Analiza regresji
- Suma kwadratów
Dalsza lektura
- Kramer, R. (1998). Techniki chemometryczne do analizy ilościowej . Marcela-Dekkera. Numer ISBN 978-0-8247-0198-7.
- Frank, Ildiko E.; Friedman, Jerome H. (1993). „Statystyczne spojrzenie na niektóre narzędzia regresji chemometrii”. Technometria . 35 (2): 109–148. doi : 10.1080/00401706.1993.10485033 .
- Haenleina, Michaela; Kaplan, Andreas M. (2004). „Przewodnik dla początkujących do częściowej analizy najmniejszych kwadratów”. Zrozumienie statystyk . 3 (4): 283–297. doi : 10.1207/s15328031us0304_4 .
-
Henselera, Joerga; Fassotto, Georg (2005). „Testowanie efektów moderowania w modelach ścieżek PLS. Ilustracja dostępnych procedur”. Cytowanie dziennika wymaga
|journal=
( pomoc ) - Lingjærde, ole-chrześcijanin; Christophersen, Nils (2000). „Struktura skurczu częściowych najmniejszych kwadratów”. Skandynawski Dziennik Statystyczny . 27 (3): 459–473. doi : 10.1111/1467-9469.00201 .
- Tenenhaus, Michel (1998). La Régression PLS: Théorie et Pratique. Paryż: Technip .
-
rosipal, rzymski; Kramer, Nicole (2006). „Przegląd i najnowsze postępy w częściowych najmniejszych kwadratów, w podprzestrzeni, utajonej strukturze i technikach wyboru funkcji”: 34-51. Cytowanie dziennika wymaga
|journal=
( pomoc ) - Helland, Inge S. (1990). „Regresja PLS i modele statystyczne”. Skandynawski Dziennik Statystyczny . 17 (2): 97–114. JSTOR 4616159 .
- Wold, Herman (1966). „Oszacowanie głównych składników i powiązanych modeli przez iteracyjne najmniejszych kwadratów”. W Krishnaiaah, PR (red.). Analiza wielowymiarowa . Nowy Jork: prasa akademicka. s. 391-420.
- Wold, Herman (1981). Podejście stałopunktowe do systemów współzależnych . Amsterdam: Holandia Północna.
- Wold, Herman (1985). „Częściowo najmniejszych kwadratów”. W Kotz Samuel; Johnson, Norman L. (red.). Encyklopedia nauk statystycznych . 6 . Nowy Jork: Wiley. s. 581-591.
- Wold, Svante; Ruhe, Aksel; Wold, Herman; Dunn, WJ (1984). „Problem kolinearności w regresji liniowej. podejście metodą najmniejszych kwadratów (PLS) do uogólnionych odwrotności”. SIAM Czasopismo Informatyki Naukowej i Statystycznej . 5 (3): 735–743. doi : 10.1137/0905052 .
- Garthwaite, Paul H. (1994). „Interpretacja częściowych najmniejszych kwadratów”. Dziennik Amerykańskiego Towarzystwa Statystycznego . 89 (425): 122-7. doi : 10.1080/01621459.1994.10476452 . JSTOR 2291207 .
- Wang, H., wyd. (2010). Podręcznik częściowych najmniejszych kwadratów . Numer ISBN 978-3-540-32825-4.
- Kamień, M.; Brooks, RJ (1990). „Regresja kontinuum: sprawdzana krzyżowo, sekwencyjnie skonstruowana prognoza obejmująca zwykłe najmniejsze kwadraty, częściowe najmniejszych kwadratów i regresję głównych składowych”. Dziennik Królewskiego Towarzystwa Statystycznego, Seria B . 52 (2): 237–269. JSTOR 2345437 .