Multivariační analýza (MVA) je založena na statistickém principu multivariační statistiky, který zahrnuje pozorování a analýzu více než jedné statistické proměnné najednou. V konstrukci a analýze se tato technika používá k provádění obchodních studií napříč více dimenzemi při zohlednění vlivů všech proměnných na odezvy zájmu.
Přehled:
Analýza faktorů se používá k odkrytí latentní struktury (rozměrů) množiny proměnných. Redukuje atributový prostor z většího počtu proměnných na menší počet faktorů. Analýza faktorů vznikla před sto lety pokusy Charlese Spearmana ukázat, že široká škála mentálních testů by mohla být vysvětlena jediným fundamentálním inteligenčním faktorem (pojem, který je dnes mimochodem odmítán).
Aplikace:
• Snížit velký počet proměnných na menší počet faktorů pro modelování dat
• Ověřit měřítko nebo index tím, že se prokáže, že se jeho základní položky načítají na stejný faktor, a upustit od navržených položek měřítka, které se křížově načítají na více než jeden faktor.
• Vybrat podmnožinu proměnných z větší množiny na základě toho, které původní proměnné mají nejvyšší korelace s hlavními komponentními faktory.
• Vytvořit množinu faktorů, se kterými se bude nakládat jako s nekorelovanými proměnnými jako s jedním přístupem k řešení multikolinearity v takových postupech, jako je vícenásobná regrese
Faktorová analýza je součástí rodiny obecných lineárních modelů (GLM) a vytváří mnoho stejných předpokladů jako mnohonásobná regrese
Typ faktorové analýzy
Průzkumná faktorová analýza (EFA) se používá k odhalení základní struktury relativně velké množiny proměnných. Výzkumník a priori předpokládá, že jakýkoli ukazatel může být spojen s jakýmkoli faktorem. To je nejběžnější forma faktorové analýzy. Neexistuje žádná předchozí teorie a k intuitivnímu zjištění faktorové struktury dat se používá faktorové zatížení.
Konfirmační faktorová analýza (CFA) se snaží určit, zda počet faktorů a zatížení naměřených (indikátorových) proměnných na nich odpovídá tomu, co se očekává na základě předem stanovené teorie. Indikátorové proměnné se vybírají na základě předchozí teorie a faktorová analýza se používá ke zjištění, zda se načítají tak, jak se předpovídá na očekávaný počet faktorů. Výzkumník a priori předpokládá, že každý faktor (jehož počet a popisky mohou být specifikovány a priori) je spojen se specifikovanou podmnožinou indikátorových proměnných. Minimálním požadavkem konfirmační faktorové analýzy je, že se předem předpokládá počet faktorů v modelu, ale obvykle také výzkumník vytvoří očekávání ohledně toho, které proměnné se načtou na které faktory. Výzkumník se snaží například určit, zda ukazatele vytvořené pro reprezentaci latentní proměnné skutečně patří k sobě.
Typy faktoringu
Analýza hlavních komponent (PCA): Nejběžnější forma faktorové analýzy, PCA hledá lineární kombinaci proměnných tak, aby z proměnných byla extrahována maximální variance. Ta pak tuto varianci odstraní a hledá druhou lineární kombinaci, která vysvětluje maximální podíl zbývající variance a tak dále. Tomu se říká metoda hlavní osy a výsledkem jsou ortogonální (nekorelované) faktory.
Kanonická faktorová analýza , také nazývaná Raův kanonický faktoring, je odlišná metoda výpočtu stejného modelu jako PCA, která používá metodu hlavní osy. CFA hledá faktory, které mají nejvyšší kanonickou korelaci s pozorovanými proměnnými. CFA není ovlivněna svévolnou reskalizací dat.
Společná faktorová analýza, také nazývaná analýza hlavních faktorů (PFA) nebo faktoring hlavních os (PAF), hledá nejmenší počet faktorů, které mohou být příčinou společného rozptylu (korelace) množiny proměnných.
Image factoring: je založen na korelační matici predikovaných proměnných spíše než skutečných proměnných, kde každá proměnná je predikována z ostatních pomocí vícenásobné regrese.
Alpha factoring: je založen na maximalizaci spolehlivosti faktorů, za předpokladu, že proměnné jsou náhodně vzorkovány z vesmíru proměnných. Všechny ostatní metody předpokládají, že případy jsou vzorkovány a proměnné fixovány.
Termíny
Faktorová zatížení: Faktorová zatížení, v PCA také nazývaná komponentová zatížení, jsou korelační koeficienty mezi proměnnými (řádky) a faktory (sloupce). Podobně jako Pearsonovo r, kvadratické zatížení faktoru je procento rozptylu v dané indikátorové proměnné vysvětlené faktorem. Chcete-li získat procento rozptylu ve všech proměnných započítaných každým faktorem, sečtěte součet kvadratických zatížení faktoru pro daný faktor (sloupec) a vydělte počtem proměnných. (Všimněte si, že počet proměnných se rovná součtu jejich rozptylů, protože rozptyl standardizované proměnné je 1.) To je stejné jako vydělit vlastní hodnotu faktoru počtem proměnných.
Interpretace zatížení faktory: Podle jednoho pravidla v konfirmační analýze faktorů by zatížení mělo být 0,7 nebo vyšší, aby se potvrdilo, že nezávislé proměnné identifikované a priori jsou zastoupeny určitým faktorem, na základě zdůvodnění, že úroveň 0,7 odpovídá přibližně polovině rozptylu ukazatele, který je vysvětlen faktorem. Norma 0,7 je však vysoká a data z reálného života nemusí toto kritérium splňovat, což je důvod, proč někteří výzkumníci, zejména pro průzkumné účely, použijí nižší úroveň, jako je 0,4 pro centrální faktor a 0,25 pro ostatní faktory, nazývají zatížení nad 0,6 „vysokým“ a zatížení pod 0,4 „nízkým“. V každém případě musí být zatížení faktory interpretováno ve světle teorie, nikoli libovolnými mezními úrovněmi.
V šikmé rotaci dostaneme jak vzorovou matici, tak strukturní matici. Strukturní matice je jednoduše faktorová zatěžovací matice jako v ortogonální rotaci, představující rozptyl v měřené proměnné vysvětlený faktorem na základě unikátních i společných příspěvků. Vzorová matice naproti tomu obsahuje koeficienty, které právě představují unikátní příspěvky. Čím více faktorů, tím nižší jsou zpravidla vzorové koeficienty, protože bude vysvětleno více společných příspěvků k rozptylu. U šikmé rotace se výzkumník při přiřazování popisku faktoru dívá na koeficienty struktury i vzoru.
Komunalita (h2): Součet čtvercových koeficientů zatížení pro všechny faktory pro danou proměnnou (řádek) je rozptyl této proměnné, který je započítán všemi faktory, a tomu se říká komunalita. Komunalita měří procento rozptylu v dané proměnné, které je vysvětleno všemi faktory společně, a může být interpretováno jako spolehlivost ukazatele.
Spuriózní řešení: Pokud komunalita překročí 1,0, existuje falešné řešení, které může odrážet příliš malý vzorek nebo výzkumník má příliš mnoho nebo příliš málo faktorů.
Jedinečnost proměnné: 1-h2. To znamená, že jedinečnost je variabilita proměnné minus její komunalita.
Extrakční součty čtvercových zatížení: Počáteční vlastní čísla a vlastní čísla po extrakci (SPSS je uvádí jako „Extrakční součty čtvercových zatížení“) jsou pro extrakci PCA stejná, ale pro jiné metody extrakce budou vlastní čísla po extrakci nižší než jejich původní protějšky. SPSS také tiskne „Rotační součty čtvercových zatížení“ a i pro PCA se budou tato vlastní čísla lišit od počátečních a extrakčních vlastních čísel, i když jejich součet bude stejný.
Kritéria pro určení počtu faktorů
Srozumitelnost: I když se nejedná o přísně matematické kritérium, lze říci mnohé pro omezení počtu faktorů na ty, jejichž dimenze významu je snadno srozumitelná. Často se jedná o první dvě nebo tři. Pomocí jedné nebo více z níže uvedených metod určí výzkumník vhodnou škálu řešení k prozkoumání. Například Kaiserovo kritérium může navrhovat tři faktory a suťový test může navrhovat 5, takže výzkumník může požadovat 3, 4 a 5-faktorová řešení a vybrat řešení, které generuje nejsrozumitelnější strukturu faktorů.
Kaiserovo kritérium: Kaiserovo pravidlo je vypustit všechny komponenty s vlastními čísly pod 1.0. Kaiserovo kritérium je výchozí v SPSS a většině počítačových programů, ale nedoporučuje se, pokud se používá jako jediné hraniční kritérium pro odhad počtu faktorů.
Scree zákres: Cattell scree test vykreslí komponenty jako osu X a odpovídající vlastní hodnoty jako osu Y. Jak se jeden pohybuje doprava, směrem k pozdějším komponentům, vlastní hodnoty klesají. Když pokles ustane a křivka udělá loket směrem k méně strmému poklesu, Cattell’s scree test říká, že všechny další komponenty klesnou po té, která začíná loket. Toto pravidlo je někdy kritizováno za to, že je přístupné výzkumníkem řízenému „fudgingu“. To znamená, že výběr „lokte“ může být subjektivní, protože křivka má více loktů nebo je hladká křivka, výzkumník může být v pokušení nastavit mez na počet faktorů požadovaných jeho výzkumným programem.
Kritéria vysvětlená odchylkou: Někteří výzkumníci prostě používají pravidlo, že je třeba udržovat dostatek faktorů, které tvoří 90%; (někdy 80%) odchylky. Tam, kde cíl výzkumníka klade důraz na parsimonii (vysvětlení odchylky s co nejmenším počtem faktorů), může být kritérium až 50%
Před upuštěním faktoru pod vlastní mez by však měl výzkumník zkontrolovat jeho korelaci se závislou proměnnou. Velmi malý faktor může mít velkou korelaci se závislou proměnnou, v takovém případě by neměl být upuštěn.
Metody rotace: Rotace slouží k tomu, aby byl výstup srozumitelnější a je obvykle nutná k usnadnění interpretace faktorů.
Varimax rotace je ortogonální rotace os faktoru za účelem maximalizace rozptylu čtvercového zatížení faktoru (sloupce) na všechny proměnné (řádky) v matici faktoru, což má za následek odlišení původních proměnných extrahovaným faktorem. Každý faktor bude mít tendenci mít buď velké nebo malé zatížení určité proměnné. Varimax řešení přináší výsledky, které co nejvíce usnadňují identifikaci každé proměnné jedním faktorem. To je nejběžnější možnost rotace.
Quartimax rotace je ortogonální alternativa, která minimalizuje počet faktorů potřebných k vysvětlení každé proměnné. Tento typ rotace často generuje obecný faktor, na kterém je většina proměnných zatížena vysokým nebo středním stupněm. Taková struktura faktoru obvykle není užitečná pro výzkumný účel.
Rovnovážná rotace je kompromisem mezi kritérii Varimax a Quartimax.
Přímá obliminová rotace je standardní metoda, kdy si člověk přeje jiné než ortogonální (šikmé) řešení – tedy takové, při kterém je dovoleno korelovat faktory. Výsledkem bude vyšší vlastní hodnota, ale snížená interpretabilita faktorů. Viz níže.
Promax rotace je alternativní neortogonální (šikmá) rotační metoda, která je výpočetně rychlejší než metoda přímého obliminu, a proto se někdy používá pro velmi velké datové soubory.