Analiza czynników - Factor analysis

Analiza czynnikowa to metoda statystyczna używana do opisania zmienności między obserwowanymi, skorelowanymi zmiennymi pod względem potencjalnie mniejszej liczby nieobserwowanych zmiennych zwanych czynnikami . Na przykład możliwe jest, że zmienność sześciu obserwowanych zmiennych odzwierciedla głównie zmienność dwóch nieobserwowanych (podstawowych) zmiennych. Analiza czynnikowa poszukuje takich zmian w stawach w odpowiedzi na nieobserwowane zmienne latentne . Obserwowane zmienne są modelowane jako liniowe kombinacje potencjalnych czynników plus warunki „ błędu ”.

Mówiąc najprościej, ładowanie czynnikowe zmiennej określa ilościowo stopień, w jakim zmienna jest powiązana z danym czynnikiem.

Powszechnym uzasadnieniem metod analizy czynnikowej jest to, że informacje uzyskane na temat współzależności między obserwowanymi zmiennymi można później wykorzystać do zmniejszenia zestawu zmiennych w zbiorze danych. Analiza czynnikowa jest powszechnie stosowana w psychometrii , teoriach osobowości , biologii, marketingu , zarządzaniu produktami , badaniach operacyjnych , finansach i uczeniu maszynowym . Pomocne może być radzenie sobie z zestawami danych, w których istnieje duża liczba obserwowanych zmiennych, które uważa się za odzwierciedlające mniejszą liczbę zmiennych bazowych/utajonych. Jest to jedna z najczęściej stosowanych technik współzależności i jest stosowana, gdy odpowiedni zestaw zmiennych wykazuje systematyczną współzależność, a celem jest znalezienie ukrytych czynników, które tworzą wspólność.

Model statystyczny

Definicja

Model próbuje wyjaśnić zestaw obserwacji w każdej z osób za pomocą zestawu wspólnych czynników ( ), gdzie jest mniej czynników na jednostkę niż obserwacji na jednostkę ( ). Każda osoba ma swoje własne wspólne czynniki, które są powiązane z obserwacjami za pomocą macierzy ładunków czynnikowych ( ), dla pojedynczej obserwacji, zgodnie z

w wyniku czego

  • jest wartością obserwacji osobnika,
  • jest średnią obserwacji dla tej obserwacji,
  • jest obciążeniem dla th obserwacji czynnika,
  • jest wartością czynnika th osobnika, a
  • to th nieobserwowany stochastyczny składnik błędu ze średnią zerową i skończoną wariancją.


W notacji macierzowej

gdzie macierz obserwacji , macierz współczynników , macierz terminów błędu i macierz średniej , w której th element jest po prostu .

Nałożymy również następujące założenia na :

  1. i są niezależne.
  2. ; gdzie jest Oczekiwanie?
  3. gdzie jest macierz kowariancji , aby upewnić się, że czynniki nie są skorelowane, i jest macierzą tożsamości .

Załóżmy . Następnie

a zatem z warunków nałożonych powyżej,

lub ustawienie ,

Zauważ, że dla dowolnej macierzy ortogonalnej , jeśli ustawimy i , kryteria bycia czynnikami i ładunki czynnikowe nadal obowiązują. Stąd zbiór czynników i ładunków czynnikowych jest unikalny tylko do transformacji ortogonalnej .

Przykład

Załóżmy, że psycholog ma hipotezę, że istnieją dwa rodzaje inteligencji , „inteligencja werbalna” i „inteligencja matematyczna”, z których żaden nie jest bezpośrednio obserwowany. Dowodów na hipotezę szuka się w wynikach egzaminów z każdego z 10 różnych kierunków akademickich po 1000 studentów. Jeśli każdy uczeń jest wybierany losowo z dużej populacji , to 10 wyników każdego ucznia jest zmiennymi losowymi. Hipoteza psychologa może mówić, że dla każdego z 10 kierunków akademickich wynik uśredniony dla grupy wszystkich studentów, którzy mają wspólną parę wartości dla „inteligencji” werbalnej i matematycznej, to pewna stała razy ich poziom inteligencji werbalnej plus jeszcze jedna stała razy ich poziom inteligencji matematycznej, tj. jest to liniowa kombinacja tych dwóch „czynników”. Liczby dla konkretnego podmiotu, przez które mnożone są dwa rodzaje inteligencji w celu uzyskania oczekiwanego wyniku, są zakładane przez hipotezę, że są takie same dla wszystkich par poziomów inteligencji i są nazywane „ładowaniem czynnikowym” dla tego podmiotu. Na przykład hipoteza może zakładać, że przewidywane przeciętne uzdolnienia ucznia w dziedzinie astronomii to

{10 × inteligencja werbalna ucznia} + {6 × inteligencja matematyczna ucznia}.

Liczby 10 i 6 to ładunki czynnikowe związane z astronomią. Inne przedmioty akademickie mogą mieć różne ładunki czynnikowe.

Zakłada się, że dwoje studentów posiadających identyczne stopnie inteligencji werbalnej i matematycznej może mieć różne zdolności pomiarowe w astronomii, ponieważ indywidualne zdolności różnią się od przeciętnych zdolności (przewidywanych powyżej) oraz z powodu samego błędu pomiaru. Takie różnice składają się na to, co zbiorczo nazywamy „błędem” — termin statystyczny, który oznacza ilość, o jaką jednostka, mierzona, różni się od średniej lub przewidywanej na podstawie jej poziomu inteligencji (patrz błędy i reszty w statystykach ).

Obserwowalne dane, które są poddawane analizie czynnikowej, to 10 wyników każdego z 1000 uczniów, w sumie 10 000 liczb. Ładunki czynnikowe i poziomy dwóch rodzajów inteligencji każdego ucznia należy wywnioskować z danych.

Model matematyczny tego samego przykładu

Poniżej macierze będą wskazywane przez zmienne indeksowane. Indeksy „tematu” będą oznaczone literami , i , z wartościami od do, które są równe w powyższym przykładzie. Wskaźniki „współczynnika” będą oznaczone literami , i , z wartościami od do, które są równe w powyższym przykładzie. Indeksy „instancji” lub „przykładu” będą oznaczone literami , i , przy wartościach od do . W powyższym przykładzie, jeśli w egzaminach brała udział próbka studentów , wynik dla tego studenta z tego egzaminu jest podawany przez . Celem analizy czynnikowej jest scharakteryzowanie korelacji między zmiennymi, których jest konkretnym przypadkiem lub zbiorem obserwacji. Aby zmienne były równe, są one znormalizowane do standardowych wyników :

gdzie średnia próbki wynosi:

a wariancję próbki wyraża wzór:

Model analizy czynnikowej dla tej konkretnej próby to zatem:

lub bardziej zwięźle:

gdzie

  • jest „inteligencją werbalną” ucznia,
  • jest "inteligencją matematyczną" ucznia,
  • są ładunkami czynnikowymi dla th podmiotu, dla .

W notacji macierzowej mamy

Zauważmy, że podwajając skalę, na której mierzy się „inteligencję werbalną” — pierwszy składnik w każdej kolumnie — i jednocześnie zmniejszając o połowę ładunki czynnikowe inteligencji werbalnej, nie ma żadnego wpływu na model. Tak więc, zakładając, że odchylenie standardowe czynników inteligencji werbalnej wynosi , nie traci się ogólności . Podobnie w przypadku inteligencji matematycznej. Co więcej, z podobnych powodów nie traci się ogólności przy założeniu, że te dwa czynniki nie są ze sobą skorelowane . Innymi słowy:

gdzie jest delta Kroneckera ( kiedy i kiedy ). Zakłada się, że błędy są niezależne od czynników:

Zauważ, że ponieważ każda rotacja rozwiązania jest również rozwiązaniem, utrudnia to interpretację czynników. Zobacz wady poniżej. W tym konkretnym przykładzie, jeśli nie wiemy z góry, że te dwa rodzaje inteligencji nie są ze sobą skorelowane, to nie możemy interpretować dwóch czynników jako dwóch różnych rodzajów inteligencji. Nawet jeśli nie są one skorelowane, nie możemy bez zewnętrznego argumentu stwierdzić, który czynnik odpowiada inteligencji werbalnej, a który inteligencji matematycznej.

Wartości ładunków , średnie i wariancje „błędów” muszą być oszacowane na podstawie obserwowanych danych i (założenie o poziomach czynników jest ustalone dla danego ). „Podstawowe twierdzenie” można wyprowadzić z powyższych warunków:

Wyraz po lewej stronie to -wyraz macierzy korelacji ( macierz wyprowadzona jako iloczyn macierzy standaryzowanych obserwacji z jej transpozycją) obserwowanych danych, a jej elementami diagonalnymi będą s. Drugi wyraz po prawej będzie macierzą diagonalną z wyrazami mniejszymi niż jedność. Pierwszy wyraz po prawej to „macierz zredukowanej korelacji” i będzie równy macierzy korelacji z wyjątkiem jej wartości przekątnych, które będą mniejsze niż jedność. Te elementy diagonalne zredukowanej macierzy korelacji nazywane są „wspólnotami” (które reprezentują część wariancji obserwowanej zmiennej, którą odpowiadają czynniki):

Przykładowe dane oczywiście nie będą dokładnie odpowiadać fundamentalnemu równaniu podanemu powyżej ze względu na błędy próbkowania, nieadekwatność modelu itp. Celem każdej analizy powyższego modelu jest znalezienie czynników i ładunków, które w pewnym sensie dać „najlepsze dopasowanie” do danych. W analizie czynnikowej najlepsze dopasowanie definiuje się jako minimum błędu średniokwadratowego w resztach pozadiagonalnych macierzy korelacji:

Jest to równoznaczne z minimalizacją niediagonalnych składowych kowariancji błędu, które w równaniach modelu mają wartości oczekiwane równe zero. Należy to skontrastować z analizą głównych składowych, której celem jest zminimalizowanie błędu średniokwadratowego wszystkich reszt. Przed pojawieniem się szybkich komputerów wiele wysiłku poświęcono na znalezienie przybliżonych rozwiązań problemu, szczególnie w szacowaniu społeczności innymi sposobami, co następnie znacznie upraszcza problem, uzyskując znaną zmniejszoną macierz korelacji. Zostało to następnie wykorzystane do oszacowania czynników i ładunków. Wraz z pojawieniem się szybkich komputerów problem minimalizacji można rozwiązać iteracyjnie z odpowiednią szybkością, a społeczności są obliczane w procesie, a nie są potrzebne wcześniej. MinRes algorytm jest szczególnie nadaje się do tego problemu, ale nie jest jedynym sposobem iteracyjne znalezienia rozwiązania.

Jeśli czynniki rozwiązania mogą być skorelowane (jak na przykład w przypadku obrotu „oblimin”), to odpowiedni model matematyczny wykorzystuje współrzędne skośne, a nie współrzędne ortogonalne.

Interpretacja geometryczna

Interpretacja geometryczna parametrów analizy czynnikowej dla 3 respondentów na pytanie „a”. „Odpowiedź” jest reprezentowana przez wektor jednostkowy , który jest rzutowany na płaszczyznę określoną przez dwa wektory ortonormalne i . Wektor rzutowania jest a błąd jest prostopadły do ​​płaszczyzny, więc . Wektor projekcji można przedstawić w postaci wektorów czynników jako . Kwadrat długości wektora rzutu to wspólność: . Gdyby wykreślono inny wektor danych , cosinus kąta między i byłby równa  : -wpisowi w macierzy korelacji. (Na podstawie Harman Rys. 4.3)

Parametry i zmienne analizy czynnikowej można poddać interpretacji geometrycznej. Dane ( ), współczynniki ( ) i błędy ( ) mogą być oglądane jako wektory w dwuwymiarowej przestrzeni euklidesowej (przestrzeń próbna), reprezentowane odpowiednio jako , i . Ponieważ dane są znormalizowane, wektory danych mają długość jednostkową ( ). Wektory czynnikowe definiują w tej przestrzeni dwuwymiarową podprzestrzeń liniową (tj. hiperpłaszczyznę), na którą wektory danych są rzutowane ortogonalnie. Wynika to z równania modelu

oraz niezależność czynników i błędów: . W powyższym przykładzie hiperpłaszczyzna jest tylko dwuwymiarową płaszczyzną zdefiniowaną przez dwa wektory czynników. Rzut wektorów danych na hiperpłaszczyznę jest podany przez

a błędy są wektorami od tego rzutowanego punktu do punktu danych i są prostopadłe do hiperpłaszczyzny. Celem analizy czynnikowej jest znalezienie hiperpłaszczyzny, która jest „najlepiej dopasowana” do danych w pewnym sensie, więc nie ma znaczenia, jak wybrane zostaną wektory czynników definiujących tę hiperpłaszczyznę, o ile są one niezależne i leżą w hiperplan. Możemy określić je zarówno jako ortogonalne, jak i normalne ( ) bez utraty ogólności. Po znalezieniu odpowiedniego zestawu czynników można je również dowolnie obracać w obrębie hiperpłaszczyzny, tak że każdy obrót wektorów czynników będzie definiował tę samą hiperpłaszczyznę, a także będzie rozwiązaniem. W rezultacie w powyższym przykładzie, w którym pasująca hiperpłaszczyzna jest dwuwymiarowa, jeśli nie wiemy z góry, że te dwa rodzaje inteligencji nie są skorelowane, to nie możemy interpretować tych dwóch czynników jako dwóch różnych rodzajów inteligencji. Nawet jeśli nie są one skorelowane, nie możemy powiedzieć, który czynnik odpowiada inteligencji werbalnej, a który inteligencji matematycznej, ani czy czynniki są liniowymi kombinacjami obu, bez zewnętrznego argumentu.

Wektory danych mają długość jednostkową. Wpisy macierzy korelacji dla danych są podane przez . Macierz korelacji może być geometrycznie zinterpretowana jako cosinus kąta między dwoma wektorami danych i . Elementy przekątne będą wyraźnie miały postać s, a elementy poza przekątną będą miały wartości bezwzględne mniejsze lub równe jedności. „Macierz zredukowanej korelacji” jest zdefiniowana jako

.

Celem analizy czynnikowej jest wybór dopasowanej hiperpłaszczyzny tak, aby zredukowana macierz korelacji odtwarzała macierz korelacji tak blisko, jak to możliwe, z wyjątkiem elementów diagonalnych macierzy korelacji, o których wiadomo, że mają wartość jednostkową. Innymi słowy, celem jest jak najdokładniejsze odtworzenie korelacji krzyżowych w danych. W szczególności, dla pasującej hiperpłaszczyzny, średni błąd kwadratowy w składowych poza przekątną

ma zostać zminimalizowany, a jest to osiągane przez minimalizowanie go w odniesieniu do zbioru ortonormalnych wektorów czynników. Można zauważyć, że

Termin po prawej to tylko kowariancja błędów. W modelu stwierdzono, że kowariancja błędu jest macierzą diagonalną, a zatem powyższy problem minimalizacji w rzeczywistości da „najlepsze dopasowanie” do modelu: da to przykładowe oszacowanie kowariancji błędu, która ma swoje składowe pozadiagonalne zminimalizowane w sensie średniokwadratowym. Można zauważyć, że ponieważ są to rzuty ortogonalne wektorów danych, ich długość będzie mniejsza lub równa długości rzutowanego wektora danych, która jest jednością. Kwadrat tych długości to tylko elementy diagonalne zredukowanej macierzy korelacji. Te elementy diagonalne zredukowanej macierzy korelacji są znane jako „wspólnoty”:

Duże wartości wspólnot wskazują, że dopasowana hiperpłaszczyzna dość dokładnie odtwarza macierz korelacji. Średnie wartości współczynników również muszą być ograniczone do zera, z czego wynika, że ​​średnie wartości błędów również będą wynosić zero.

Praktyczna realizacja

Rodzaje analizy czynnikowej

Eksploracyjna analiza czynnikowa

Eksploracyjna analiza czynnikowa (EFA) służy do identyfikacji złożonych wzajemnych relacji między pozycjami i pozycjami grupowymi, które są częścią ujednoliconych pojęć. Badacz nie przyjmuje a priori założeń dotyczących relacji między czynnikami.

Analiza czynnikiem potwierdzającym

Konfirmacyjna analiza czynnikowa (CFA) jest bardziej złożonym podejściem, które sprawdza hipotezę, że pozycje są powiązane z określonymi czynnikami. CFA wykorzystuje modelowanie równań strukturalnych do testowania modelu pomiarowego, w którym obciążenie czynników pozwala na ocenę relacji między zmiennymi obserwowanymi a zmiennymi nieobserwowanymi. Metody modelowania równań strukturalnych mogą uwzględniać błąd pomiaru i są mniej restrykcyjne niż estymacja metodą najmniejszych kwadratów . Hipotetyczne modele są testowane z rzeczywistymi danymi, a analiza wykazałaby ładunki obserwowanych zmiennych na zmienne latentne (czynniki), a także korelację między zmiennymi latentnymi.

Rodzaje ekstrakcji czynników

Analiza głównych składowych (PCA) jest szeroko stosowaną metodą ekstrakcji czynników, która jest pierwszą fazą EFA. Wagi czynników są obliczane w celu wyodrębnienia maksymalnej możliwej wariancji, przy czym kolejne faktoringi są kontynuowane do momentu, gdy nie ma już żadnej znaczącej wariancji. Model czynnikowy należy następnie poddać rotacji w celu analizy.

Analiza czynnikowa kanoniczna, zwana także faktoringiem kanonicznym Rao, jest inną metodą obliczania tego samego modelu co PCA, która wykorzystuje metodę osi głównych. Kanoniczna analiza czynnikowa poszukuje czynników, które mają najwyższą korelację kanoniczną z obserwowanymi zmiennymi. Dowolne przeskalowanie danych nie ma wpływu na kanoniczną analizę czynnikową.

Analiza czynników wspólnych, zwana również analizą czynników głównych (PFA) lub faktoringiem osi głównych (PAF), poszukuje najmniejszej liczby czynników, które mogą odpowiadać za wspólną wariancję (korelację) zbioru zmiennych.

Faktoring obrazu opiera się na macierzy korelacji zmiennych przewidywanych, a nie zmiennych rzeczywistych, gdzie każda zmienna jest przewidywana na podstawie innych przy użyciu regresji wielokrotnej .

Faktoring alfa opiera się na maksymalizacji wiarygodności czynników, zakładając, że zmienne są losowo próbkowane z uniwersum zmiennych. Wszystkie inne metody zakładają próbkowanie przypadków i ustalenie zmiennych.

Model regresji czynnikowej to kombinatoryczny model modelu czynnikowego i modelu regresji; lub alternatywnie może być postrzegany jako hybrydowy model czynnikowy, którego czynniki są częściowo znane.

Terminologia

Ładunki czynnikowe: Społeczność to kwadrat znormalizowanego zewnętrznego ładunku elementu. Analogicznie do r -kwadrat Pearsona , kwadrat ładunku czynnikowego jest procentem wariancji tej zmiennej wskaźnikowej wyjaśnionej przez czynnik. Aby uzyskać procent wariancji we wszystkich zmiennych uwzględnionych przez każdy czynnik, dodaj sumę kwadratów ładunków czynnikowych dla tego czynnika (kolumny) i podziel przez liczbę zmiennych. (Zauważ, że liczba zmiennych jest równa sumie ich wariancji, ponieważ wariancja znormalizowanej zmiennej wynosi 1.) Jest to równoznaczne z podzieleniem wartości własnej czynnika przez liczbę zmiennych.

Interpretacja ładunków czynnikowych: Zgodnie z jedną praktyczną regułą w konfirmacyjnej analizie czynnikowej, ładunki powinny wynosić 0,7 lub więcej, aby potwierdzić, że zmienne niezależne zidentyfikowane a priori są reprezentowane przez konkretny czynnik, przy założeniu, że poziom 0,7 odpowiada około połowie wariancja wskaźnika wyjaśniana przez czynnik. Jednak standard 0,7 jest wysoki i rzeczywiste dane mogą nie spełniać tego kryterium, dlatego niektórzy badacze, szczególnie w celach eksploracyjnych, stosują niższy poziom, np. 0,4 dla czynnika centralnego i 0,25 dla czynnika centralnego. inne czynniki. W każdym razie ładunki czynnikowe należy interpretować w świetle teorii, a nie według arbitralnych poziomów odcięcia.

W rotacji ukośnej można badać zarówno macierz wzorca, jak i macierz struktury. Macierz struktury jest po prostu macierzą obciążenia czynnikowego, jak w rotacji ortogonalnej, reprezentującą wariancję mierzonej zmiennej wyjaśnioną przez czynnik na podstawie zarówno niepowtarzalnych, jak i wspólnych wkładów. W przeciwieństwie do tego macierz wzorców zawiera współczynniki, które reprezentują tylko unikalne wkłady. Im więcej czynników, tym niższe współczynniki wzorca z reguły, ponieważ będzie wyjaśniony bardziej wspólny wkład w wariancję. W przypadku rotacji ukośnej, przypisując etykietę do czynnika, badacz bierze pod uwagę zarówno strukturę, jak i współczynniki wzorca. Zasady rotacji ukośnej można wyprowadzić zarówno z entropii krzyżowej, jak i jej entropii podwójnej.

Społeczność: suma kwadratów ładunków czynnikowych dla wszystkich czynników dla danej zmiennej (wiersza) to wariancja tej zmiennej, którą uwzględniają wszystkie czynniki. Społeczność mierzy procent wariancji danej zmiennej wyjaśniany przez wszystkie czynniki łącznie i może być interpretowany jako wiarygodność wskaźnika w kontekście stawianych czynników.

Rozwiązania fałszywe: Jeśli społeczność przekracza 1,0, istnieje rozwiązanie fałszywe, które może odzwierciedlać zbyt małą próbkę lub wybór wyodrębnienia zbyt wielu lub zbyt małej liczby czynników.

Wyjątkowość zmiennej: Zmienność zmiennej bez jej wspólnoty.

Wartości własne/pierwiastki charakterystyczne: Wartości własne mierzą wielkość zmienności w całej próbie, jaką odpowiada każdy czynnik. Stosunek wartości własnych jest stosunkiem znaczenia wyjaśniającego czynników w odniesieniu do zmiennych. Jeśli czynnik ma niską wartość własną, to w niewielkim stopniu przyczynia się do wyjaśnienia wariancji zmiennych i może być ignorowany jako mniej ważny niż czynniki o wyższych wartościach własnych.

Sumy ekstrakcji kwadratów ładunków: początkowe wartości własne i wartości własne po ekstrakcji (wymienione przez SPSS jako „sumy ekstrakcji kwadratów ładunków”) są takie same dla ekstrakcji PCA, ale w przypadku innych metod ekstrakcji wartości własne po ekstrakcji będą niższe niż ich początkowe odpowiedniki. SPSS drukuje również „Sumy rotacyjne kwadratów obciążeń”, a nawet dla PCA te wartości własne będą się różnić od początkowych i ekstrakcyjnych wartości własnych, chociaż ich suma będzie taka sama.

Oceny czynnikowe (zwane również punktami składowymi w PCA): są punktami każdego przypadku (wiersza) na każdym czynniku (kolumnie). Aby obliczyć wynik czynnikowy dla danego przypadku dla danego czynnika, bierze się standaryzowany wynik przypadku dla każdej zmiennej, mnoży się przez odpowiednie ładunki zmiennej dla danego czynnika i sumuje te iloczyny. Obliczanie ocen czynnikowych pozwala szukać wartości odstających czynnikowych. Ponadto oceny czynnikowe mogą być wykorzystywane jako zmienne w późniejszym modelowaniu. (Wyjaśnione z PCA, a nie z perspektywy analizy czynnikowej).

Kryteria określania liczby czynników

Badacze chcą uniknąć takich subiektywnych lub arbitralnych kryteriów retencji czynników, jak „to miało dla mnie sens”. W celu rozwiązania tego problemu opracowano szereg obiektywnych metod, które pozwalają użytkownikom określić odpowiedni zakres rozwiązań do zbadania. Metody mogą się nie zgadzać. Na przykład analiza równoległa może sugerować 5 czynników, podczas gdy MAP Velicera sugeruje 6, więc badacz może zażądać zarówno rozwiązań 5-, jak i 6-czynnikowych i omówić każde z nich pod kątem ich związku z danymi zewnętrznymi i teorią.

Nowoczesne kryteria

Analiza równoległa Horna (PA): Metoda symulacji oparta na Monte-Carlo, która porównuje obserwowane wartości własne z wartościami uzyskanymi z nieskorelowanych zmiennych normalnych. Czynnik lub składnik jest zachowywany, jeśli powiązana wartość własna jest większa niż 95 percentyl rozkładu wartości własnych uzyskanych z danych losowych. PA jest jedną z częściej zalecanych reguł określania liczby komponentów do zachowania, ale wiele programów nie zawiera tej opcji (znacznym wyjątkiem jest R ). Jednak Formann warunkiem zarówno teoretyczne i empiryczne dowody, że jej stosowanie może nie być właściwe w wielu przypadkach, ponieważ jego wydajność jest znacznie wpływem próbki wielkości , dyskryminacji pozycji i rodzaju współczynnika korelacji .

Test MAP Velicera (1976) opisany przez Courtney (2013) „zawiera kompletną analizę głównych składowych, po której następuje badanie serii macierzy korelacji cząstkowych” (s. 397 (choć należy zauważyć, że cytat ten nie występuje w Velicer (1976)). ) a cytowany numer strony znajduje się poza stronami cytatu). Kwadrat korelacji dla kroku „0” (patrz rysunek 4) jest średnią kwadratową korelacji poza przekątną dla nieczęściowej macierzy korelacji. W kroku 1 pierwszy główny składnik i powiązane z nim elementy są wycinane na części.Następnie obliczana jest średnia kwadratowa korelacja pozadiagonalna dla kolejnej macierzy korelacji dla kroku 1. W kroku 2 pierwsze dwa główne składniki są wycinane na części, a wynikowa średnia kwadratowa korelacja pozadiagonalna jest obliczana jest ponownie obliczana. Obliczenia są przeprowadzane dla k minus jeden krok (k reprezentuje całkowitą liczbę zmiennych w macierzy). Następnie wszystkie korelacje średniokwadratowe dla każdego kroku wynoszą li ne, a liczba kroków w analizach, w wyniku których uzyskano najniższą średnią kwadratową korelacji cząstkowej, określa liczbę składników lub czynników do zachowania. Dzięki tej metodzie składowe są utrzymywane tak długo, jak długo wariancja w macierzy korelacji reprezentuje wariancję systematyczną, w przeciwieństwie do wariancji resztowej lub błędu. Chociaż metodologicznie zbliżona do analizy głównych składowych, technika MAP okazała się dość dobra w określaniu liczby czynników, które należy zachować w wielokrotnych badaniach symulacyjnych. Ta procedura jest dostępna za pośrednictwem interfejsu użytkownika SPSS, a także pakietu psych dla języka programowania R .

Starsze metody

Kryterium Kaisera: Reguła Kaisera polega na odrzuceniu wszystkich komponentów z wartościami własnymi poniżej 1,0 – jest to wartość własna równa informacjom rozliczanym przez przeciętny pojedynczy element. Kryterium Kaisera jest domyślne w SPSS i większości programów statystycznych, ale nie jest zalecane, gdy jest używane jako jedyne kryterium odcięcia do szacowania liczby czynników, ponieważ ma tendencję do nadmiernego wyodrębniania czynników. Stworzono odmianę tej metody, w której badacz oblicza przedziały ufności dla każdej wartości własnej i zachowuje tylko czynniki, których cały przedział ufności jest większy niż 1,0.

Zsypisko wykres : THE Cattell Piargi poletkach składników, takich jak na osi x, a odpowiednie wartości własnych jak osi Y . W miarę przesuwania się w prawo, w kierunku późniejszych składowych, wartości własne spadają. Kiedy spadek ustaje, a krzywa tworzy łokieć w kierunku mniej stromego spadku, test osypiska Cattella mówi, aby zrzucić wszystkie dalsze składniki po tym, który zaczyna się od łokcia. Zasada ta jest czasami krytykowana za podatność na kontrolowane przez badaczy „ fałszowanie ”. Oznacza to, że wybór „łokcia” może być subiektywny, ponieważ krzywa ma wiele łokci lub jest gładką krzywą, badacz może ulec pokusie ustalenia wartości granicznej na liczbę czynników pożądanych przez ich program badawczy.

Kryteria wyjaśniające wariancję: Niektórzy badacze po prostu stosują zasadę zachowania wystarczającej liczby czynników, aby uwzględnić 90% (czasami 80%) zmienności. Tam, gdzie celem badacza jest oszczędność (wyjaśnianie wariancji jak najmniejszą liczbą czynników), kryterium może wynosić nawet 50%.

Metoda bayesowska

Podejście bayesowskie oparte na indyjskim procesie bufetowym zwraca rozkład prawdopodobieństwa na prawdopodobną liczbę czynników ukrytych.

Metody rotacji

Nieobrócony wynik maksymalizuje wariancję uwzględnioną przez pierwszy i kolejne czynniki oraz wymusza, aby czynniki były ortogonalne . Ta kompresja danych odbywa się kosztem wczytywania większości elementów na wczesnych czynnikach, a zwykle wielu elementów wczytywanych w oparciu o więcej niż jeden czynnik. Rotacja służy do tego, aby dane wyjściowe były bardziej zrozumiałe, poprzez poszukiwanie tak zwanej „prostej struktury”: wzorzec obciążeń, w którym każdy element ładuje się silnie tylko na jednym z czynników, a znacznie słabiej na innych czynnikach. Rotacje mogą być ortogonalne lub ukośne (pozwalając na korelację czynników).

Rotacja Varimax jest rotacją ortogonalną osi czynników, aby zmaksymalizować wariancję kwadratów ładunków czynnika (kolumny) na wszystkich zmiennych (wierszach) w macierzy czynników, co skutkuje różnicowaniem zmiennych pierwotnych przez wyodrębniony czynnik. Każdy czynnik będzie miał tendencję do posiadania dużych lub małych ładunków dowolnej konkretnej zmiennej. Rozwiązanie varimax daje wyniki, które maksymalnie ułatwiają identyfikację każdej zmiennej za pomocą jednego czynnika. Jest to najczęstsza opcja rotacji. Jednak ortogonalność (tj. niezależność) czynników jest często nierealistycznym założeniem. Obroty ukośne obejmują rotację ortogonalną iz tego powodu preferowaną metodą są rotacje ukośne. Uwzględnienie czynników, które są ze sobą skorelowane, ma szczególne zastosowanie w badaniach psychometrycznych, ponieważ postawy, opinie i zdolności intelektualne są ze sobą skorelowane i nierealistyczne byłoby w wielu sytuacjach zakładać, że jest inaczej.

Rotacja Quartimax jest ortogonalną alternatywą, która minimalizuje liczbę czynników potrzebnych do wyjaśnienia każdej zmiennej. Ten rodzaj rotacji często generuje ogólny czynnik, na który większość zmiennych jest obciążona w wysokim lub średnim stopniu. Taka struktura czynnikowa zwykle nie jest pomocna dla celu badawczego.

Rotacja Equimax jest kompromisem pomiędzy kryteriami varimax i quartimax.

Bezpośrednia rotacja obliminów jest standardową metodą, gdy ktoś życzy sobie rozwiązania nieortogonalnego (ukośnego), to znaczy takiego, w którym czynniki mogą być skorelowane. Spowoduje to wyższe wartości własne, ale zmniejszoną interpretację czynników. Zobacz poniżej.

Rotacja Promax jest alternatywną nieortogonalną (ukośną) metodą rotacji, która jest szybsza obliczeniowo niż metoda bezpośredniego oblimina i dlatego jest czasami używana w przypadku bardzo dużych zbiorów danych .

Analiza czynników wyższego rzędu

Analiza czynnikowa wyższego rzędu to metoda statystyczna polegająca na powtarzaniu kroków analizy czynnikowej – rotacji ukośnej – analizie czynnikowej czynników rotowanych. Jego zasługą jest umożliwienie badaczowi zobaczenia hierarchicznej struktury badanych zjawisk. Aby zinterpretować wyniki, należy pomnożyć macierz głównych wzorców czynników przez macierze wzorców czynników wyższego rzędu (Gorsuch, 1983) i być może zastosować rotację Varimax do wyniku (Thompson, 1990) lub zastosować Schmid- Rozwiązanie Leimana (SLS, Schmid & Leiman, 1957, znane również jako transformacja Schmida-Leimana), które przypisuje zmienność czynników pierwotnych czynnikom drugiego rzędu.

W psychometrii

Historia

Charles Spearman był pierwszym psychologiem, który omówił wspólną analizę czynnikową i zrobił to w swoim artykule z 1904 roku. Zawierała niewiele szczegółów na temat jego metod i dotyczyła modeli jednoczynnikowych. Odkrył, że wyniki dzieci w wieku szkolnym w szerokiej gamie pozornie niezwiązanych ze sobą tematów były pozytywnie skorelowane, co doprowadziło go do wniosku, że pojedyncza ogólna zdolność umysłowa, g , leży u podstaw ludzkich zdolności poznawczych i kształtuje je.

Początkowy rozwój wspólnej analizy czynnikowej z wieloma czynnikami został przedstawiony przez Louisa Thurstone'a w dwóch pracach na początku lat 30. XX wieku, podsumowanych w jego książce z 1935 r., The Vector of Mind . Thurstone wprowadził kilka ważnych koncepcji analizy czynnikowej, w tym wspólnotę, niepowtarzalność i rotację. Opowiadał się za „prostą strukturą” i opracował metody rotacji, które można wykorzystać jako sposób na osiągnięcie takiej struktury.

W metodologii Q Stephenson, student Spearmana, rozróżnia między analizą czynnika R , zorientowaną na badanie różnic międzyosobniczych, a analizą czynnika Q zorientowaną na subiektywne różnice międzyosobnicze .

Raymond Cattell był zdecydowanym zwolennikiem analizy czynnikowej i psychometrii i wykorzystał wieloczynnikową teorię Thurstone'a do wyjaśnienia inteligencji. Cattell opracował również test „osypiska” i współczynniki podobieństwa.

Zastosowania w psychologii

Analiza czynnikowa służy do identyfikacji „czynników”, które wyjaśniają różne wyniki w różnych testach. Na przykład badania nad inteligencją wykazały, że ludzie, którzy uzyskali wysoki wynik w teście zdolności werbalnych, są również dobrzy w innych testach wymagających umiejętności werbalnych. Naukowcy wyjaśnili to za pomocą analizy czynnikowej, aby wyizolować jeden czynnik, często nazywany inteligencją werbalną, który reprezentuje stopień, w jakim ktoś jest w stanie rozwiązać problemy dotyczące umiejętności werbalnych.

Analiza czynnikowa w psychologii najczęściej kojarzy się z badaniami inteligencji. Jednak był również używany do znajdowania czynników w szerokim zakresie domen, takich jak osobowość, postawy, przekonania itp. Jest on powiązany z psychometrią , ponieważ może ocenić trafność narzędzia poprzez stwierdzenie, czy narzędzie rzeczywiście mierzy postulowane czynniki.

Analiza czynnikowa jest często stosowaną techniką w badaniach międzykulturowych. Służy wydobyciu wymiarów kulturowych . Najbardziej znane modele wymiarów kulturowych to te opracowane przez Geerta Hofstede , Ronalda Ingleharta , Christiana Welzela , Shaloma Schwartza i Michaela Minkova.

Zalety

  • Zmniejszenie liczby zmiennych poprzez połączenie dwóch lub więcej zmiennych w jeden czynnik. Na przykład wyniki w bieganiu, rzucaniu piłką, odbijaniu, skakaniu i podnoszeniu ciężarów można połączyć w jeden czynnik, taki jak ogólna sprawność fizyczna. Zwykle w macierzy pozycji według osób czynniki są wybierane przez grupowanie powiązanych pozycji. W technice analizy czynnika Q macierz jest transponowana, a czynniki są tworzone przez grupowanie powiązanych osób. Na przykład liberałowie, libertarianie, konserwatyści i socjaliści mogą tworzyć oddzielne grupy.
  • Identyfikacja grup powiązanych ze sobą zmiennych, aby zobaczyć, jak są ze sobą powiązane. Na przykład Carroll wykorzystał analizę czynnikową do zbudowania swojej teorii trzech warstw . Odkrył, że czynnik zwany „szeroką percepcją wzrokową” odnosi się do tego, jak dobra jest dana osoba w zadaniach wzrokowych. Odkrył również czynnik „szerokiej percepcji słuchowej”, związany ze zdolnością wykonywania zadań słuchowych. Ponadto odkrył czynnik globalny, zwany „g” lub inteligencją ogólną, który odnosi się zarówno do „szerokiej percepcji wzrokowej”, jak i „szerokiej percepcji słuchowej”. Oznacza to, że osoba z wysokim „g” prawdopodobnie ma zarówno wysoką zdolność „percepcji wzrokowej”, jak i wysoką zdolność „percepcji słuchowej”, a zatem „g” w dużej mierze wyjaśnia, dlaczego ktoś jest dobry lub zły w obu przypadkach. te domeny.

Niedogodności

  • „...każda orientacja jest w równym stopniu akceptowalna matematycznie. Jednak różne teorie czynnikowe okazały się różnić tak samo pod względem orientacji osi czynnikowych dla danego rozwiązania, jak pod względem czegokolwiek innego, więc dopasowanie modelu nie okazało się przydatne w rozróżnianie między teoriami”. (Sternberg, 1977). Oznacza to, że wszystkie rotacje reprezentują różne podstawowe procesy, ale wszystkie rotacje są równie ważnymi wynikami standardowej optymalizacji analizy czynnikowej. Dlatego niemożliwe jest wybranie właściwej rotacji za pomocą samej analizy czynnikowej.
  • Analiza czynnikowa może być tylko tak dobra, jak pozwalają na to dane. W psychologii, gdzie badacze często muszą polegać na mniej trafnych i wiarygodnych miarach, takich jak raporty własne, może to być problematyczne.
  • Interpretacja analizy czynnikowej opiera się na zastosowaniu „heurystyki”, która jest rozwiązaniem „wygodnym, nawet jeśli nie jest całkowicie prawdziwe”. Można dokonać więcej niż jednej interpretacji tych samych danych w ten sam sposób, a analiza czynnikowa nie może zidentyfikować przyczynowości.

Eksploracyjna analiza czynnikowa (EFA) a analiza głównych składowych (PCA)

Analiza czynnikowa jest powiązana z analizą głównych składowych (PCA), ale nie są one identyczne. W tej dziedzinie pojawiły się znaczne kontrowersje dotyczące różnic między tymi dwiema technikami. PCA można uznać za bardziej podstawową wersję eksploracyjnej analizy czynnikowej (EFA), która została opracowana na początku przed pojawieniem się szybkich komputerów. Zarówno PCA, jak i analiza czynnikowa mają na celu zmniejszenie wymiarowości zbioru danych, ale podejścia przyjęte w tym celu są różne dla obu technik. Analiza czynnikowa jest wyraźnie zaprojektowana w celu zidentyfikowania pewnych nieobserwowalnych czynników z obserwowanych zmiennych, podczas gdy PCA nie odnosi się bezpośrednio do tego celu; w najlepszym przypadku PCA zapewnia przybliżenie do wymaganych czynników. Z punktu widzenia analizy eksploracyjnej wartości własne PCA są zawyżonymi ładunkami składowymi, czyli zanieczyszczonymi wariancją błędu.

Chociaż EFA i PCA są traktowane jako techniki synonimiczne w niektórych dziedzinach statystyki, spotkało się to z krytyką. Analiza czynnikowa „zajmuje się założeniem podstawowej struktury przyczynowej : [zakłada], że kowariancja w obserwowanych zmiennych jest spowodowana obecnością jednej lub więcej ukrytych zmiennych (czynników), które wywierają wpływ przyczynowy na te obserwowane zmienne”. W przeciwieństwie do tego, PCA nie zakłada ani nie zależy od takiego podstawowego związku przyczynowego. Naukowcy argumentowali, że rozróżnienie między tymi dwiema technikami może oznaczać, że istnieją obiektywne korzyści z preferowania jednej nad drugą w oparciu o cel analityczny. Jeśli model czynnikowy zostanie błędnie sformułowany lub założenia nie zostaną spełnione, analiza czynnikowa da błędne wyniki. Analiza czynnikowa jest z powodzeniem stosowana tam, gdzie odpowiednie zrozumienie systemu pozwala na dobre sformułowanie modelu początkowego. PCA wykorzystuje matematyczną transformację do oryginalnych danych bez założeń dotyczących postaci macierzy kowariancji. Celem PCA jest określenie liniowych kombinacji oryginalnych zmiennych i wybranie kilku, które można wykorzystać do podsumowania zestawu danych bez utraty dużej ilości informacji.

Argumenty przeciwstawne PCA i EFA

Fabrigar i in. (1999) odwołują się do kilku powodów, na podstawie których można zasugerować, że PCA nie jest równoważne analizie czynnikowej:

  1. Czasami sugeruje się, że PCA jest obliczeniowo szybsze i wymaga mniej zasobów niż analiza czynnikowa. Fabrigar i in. sugerują, że łatwo dostępne zasoby komputerowe sprawiły, że ta praktyczna obawa stała się nieistotna.
  2. PCA i analiza czynnikowa mogą dać podobne wyniki. Ten punkt jest również poruszany przez Fabrigara i in.; w niektórych przypadkach, gdy społeczności są niskie (np. 0,4), obie techniki dają rozbieżne wyniki. W rzeczywistości Fabrigar i in. twierdzą, że w przypadkach, w których dane odpowiadają założeniom modelu wspólnego czynnika, wyniki PCA są niedokładnymi wynikami.
  3. Istnieją pewne przypadki, w których analiza czynnikowa prowadzi do „przypadków Heywooda”. Obejmują one sytuacje, w których szacuje się, że 100% lub więcej wariancji mierzonej zmiennej jest uwzględniane przez model. Fabrigar i in. sugerować, że te przypadki są rzeczywiście informatywne dla badacza, wskazujące na błędnie określony model lub naruszenie modelu czynnika wspólnego. Brak przypadków Heywood w podejściu PCA może oznaczać, że takie problemy przechodzą niezauważone.
  4. Naukowcy uzyskują dodatkowe informacje z podejścia PCA, takie jak punktacja danej osoby w określonym składniku; takie informacje nie pochodzą z analizy czynnikowej. Jednakże, jak Fabrigar i in. Twierdzą, że typowy cel analizy czynnikowej – czyli ustalenie czynników, które odpowiadają za strukturę korelacji między mierzonymi zmiennymi – nie wymaga znajomości ocen czynnikowych, a tym samym ta przewaga jest negowana. Możliwe jest również obliczenie ocen czynnikowych na podstawie analizy czynnikowej.

Wariancja a kowariancja

Analiza czynnikowa uwzględnia błąd losowy, który jest nieodłączny w pomiarze, podczas gdy PCA tego nie robi. Przykładem tego punktu jest Brown (2009), który wskazał, że w odniesieniu do użytych w obliczeniach macierzy korelacji:

„W PCA 1,00 są umieszczone na przekątnej, co oznacza, że ​​należy uwzględnić całą wariancję w macierzy (w tym wariancję unikalną dla każdej zmiennej, wariancję wspólną dla zmiennych i wariancję błędu). , uwzględnij całą wariancję zmiennych. W przeciwieństwie do tego, w EFA, wspólnoty są umieszczane na przekątnej, co oznacza, że ​​należy uwzględnić tylko wariancję wspólną z innymi zmiennymi (z wyłączeniem wariancji unikalnej dla każdej zmiennej i wariancji błędu). dlatego z definicji obejmowałby tylko wariancję, która jest powszechna wśród zmiennych”.

—  Brown (2009), Analiza głównych składowych i eksploracyjna analiza czynnikowa – Definicje, różnice i wybory

Z tego powodu Brown (2009) zaleca stosowanie analizy czynnikowej, gdy istnieją teoretyczne koncepcje dotyczące relacji między zmiennymi, podczas gdy PCA powinno być stosowane, jeśli celem badacza jest eksploracja wzorców w danych.

Różnice w procedurze i wynikach

Różnice między PCA a analizą czynnikową (FA) ilustruje dalej Suhr (2009):

  • PCA daje główne składniki, które odpowiadają za maksymalną ilość wariancji dla obserwowanych zmiennych; FA uwzględnia wspólną wariancję danych.
  • PCA wstawia jedynki na przekątnych macierzy korelacji; FA koryguje przekątne macierzy korelacji z unikalnymi czynnikami.
  • PCA minimalizuje sumę kwadratu odległości prostopadłej do osi elementu; FA szacuje czynniki, które wpływają na odpowiedzi na obserwowane zmienne.
  • Wyniki składowe w PCA reprezentują liniową kombinację obserwowanych zmiennych ważonych wektorami własnymi ; obserwowane zmienne w FA są liniowymi kombinacjami czynników bazowych i unikalnych.
  • W PCA otrzymane komponenty są niemożliwe do zinterpretowania, tj. nie reprezentują podstawowych „konstruktów”; w FA, podstawowe konstrukty mogą być oznakowane i łatwo zinterpretowane, podając dokładną specyfikację modelu.


W marketingu

Podstawowe kroki to:

  • Zidentyfikuj najistotniejsze atrybuty używane przez konsumentów do oceny produktów w tej kategorii.
  • Użyj ilościowych technik badań marketingowych (takich jak ankiety ), aby zebrać dane z próby potencjalnych klientów dotyczące ich ocen wszystkich atrybutów produktu.
  • Wprowadź dane do programu statystycznego i uruchom procedurę analizy czynnikowej. Komputer poda zestaw podstawowych atrybutów (lub czynników).
  • Wykorzystaj te czynniki do tworzenia map percepcyjnych i innych urządzeń do pozycjonowania produktów .

Zbieranie informacji

Etap zbierania danych jest zwykle wykonywany przez specjalistów ds. badań marketingowych. Pytania ankiety proszą respondenta o ocenę próbki produktu lub opisów koncepcji produktu pod kątem szeregu atrybutów. Wszędzie wybiera się od pięciu do dwudziestu atrybutów. Mogą one obejmować takie rzeczy jak: łatwość użytkowania, waga, dokładność, trwałość, kolorystyka, cena lub rozmiar. Wybrane atrybuty będą się różnić w zależności od badanego produktu. To samo pytanie zadawane jest o wszystkich produktach objętych badaniem. Dane dotyczące wielu produktów są kodowane i wprowadzane do programu statystycznego, takiego jak R , SPSS , SAS , Stata , STATISTICA , JMP i SYSTAT.

Analiza

Analiza wyizoluje podstawowe czynniki, które wyjaśniają dane za pomocą macierzy powiązań. Analiza czynnikowa jest techniką współzależności. Badany jest cały zestaw współzależnych relacji. Nie ma specyfikacji zmiennych zależnych, zmiennych niezależnych ani przyczynowości. Analiza czynnikowa zakłada, że ​​wszystkie dane ratingowe dotyczące różnych atrybutów można zredukować do kilku ważnych wymiarów. Ta redukcja jest możliwa, ponieważ niektóre atrybuty mogą być ze sobą powiązane. Ocena przyznana jednemu atrybutowi jest częściowo wynikiem wpływu innych atrybutów. Algorytm statystyczny rozkłada ocenę (zwaną wynikiem surowym) na różne składniki i rekonstruuje wyniki cząstkowe na podstawowe oceny czynnikowe. Stopień korelacji między początkowym wynikiem surowym a końcowym wynikiem czynnikowym nazywany jest ładowaniem czynnikowym .

Zalety

  • Można stosować zarówno obiektywne, jak i subiektywne atrybuty, pod warunkiem, że subiektywne atrybuty można przekształcić w wyniki.
  • Analiza czynnikowa może zidentyfikować ukryte wymiary lub konstrukcje, których bezpośrednia analiza może nie.
  • To proste i niedrogie.

Niedogodności

  • Przydatność zależy od zdolności badaczy do zebrania wystarczającego zestawu atrybutów produktu. Jeśli ważne atrybuty zostaną wykluczone lub zaniedbane, wartość procedury jest zmniejszona.
  • Jeśli zbiory obserwowanych zmiennych są bardzo podobne do siebie i różniące się od innych pozycji, analiza czynnikowa przypisze im jeden czynnik. Może to przesłonić czynniki, które reprezentują bardziej interesujące relacje.
  • Nazewnictwo czynników może wymagać znajomości teorii, ponieważ pozornie odmienne atrybuty mogą z nieznanych powodów silnie korelować.

W naukach fizycznych i biologicznych

Analiza czynnikowa jest również szeroko stosowana w naukach fizycznych, takich jak geochemia , hydrochemia , astrofizyka i kosmologia , a także w naukach biologicznych, takich jak ekologia , biologia molekularna , neuronauka i biochemia .

W zarządzaniu jakością wód podziemnych ważne jest powiązanie przestrzennego rozkładu różnych parametrów chemicznych z różnymi możliwymi źródłami, które mają różne sygnatury chemiczne. Na przykład kopalnia siarczków prawdopodobnie kojarzy się z wysokim poziomem kwasowości, rozpuszczonymi siarczanami i metalami przejściowymi. Sygnatury te można zidentyfikować jako czynniki za pomocą analizy czynnikowej trybu R, a lokalizację możliwych źródeł można zasugerować poprzez konturowanie wyników czynników.

W geochemii różne czynniki mogą odpowiadać różnym asocjacjom minerałów, a tym samym mineralizacji.

W analizie mikromacierzy

Analiza czynnikowa może być wykorzystana do podsumowania danych z mikromacierzy oligonukleotydowego DNA o wysokiej gęstości na poziomie sondy dla Affymetrix GeneChips . W tym przypadku zmienna latentna odpowiada stężeniu RNA w próbce.

Realizacja

Analiza czynnikowa została wdrożona w kilku programach analizy statystycznej od lat 80. XX wieku:

Zobacz też

Bibliografia

Dalsza lektura

Zewnętrzne linki