Ich habe einen Satz von 20 Likert-Items (von 1-5, Stichprobengröße n = 299) im Bereich der Organisationsforschung erhalten. Die Elemente sollen ein latentes Konzept messen, das von Natur aus mehrdimensional, facettenreich und heterogen ist. Ziel ist es, eine oder mehrere Skalen zu erstellen, mit denen verschiedene Organisationen analysiert und in der logistischen Regression verwendet werden können. Nach der amerikanischen Vereinigung für Psychologie sollte eine Skala (1) eindimensional, (2) zuverlässig und (3) gültig sein.
Aus diesem Grund haben wir uns entschieden, vier Dimensionen oder Subskalen mit jeweils 4/6/6/4 Elementen auszuwählen. die angenommen werden, um das Konzept darzustellen.
Die Elemente werden unter Verwendung des reflektierenden Ansatzes konstruiert (viele mögliche Elemente werden generiert und Elemente werden iterativ unter Verwendung von Cronbachs Alpha- und Konzeptdarstellung (Gültigkeit) in drei nachfolgenden Gruppen gelöscht).
Unter Verwendung der verfügbaren Daten ergab eine vorläufige parallele Analyse des erklärenden Faktors auf der Grundlage polychoraler Korrelationen und der Verwendung der Varimax-Rotation, dass Elemente andere Faktoren als erwartet belasten. Es gibt mindestens 7 latente Faktoren im Gegensatz zu vier hypothetischen. Die durchschnittliche Korrelation zwischen den Elementen ist recht gering (r = 0,15), wenn auch positiv. Der Cronbach-Alpha-Koeffizient ist für jede Skala ebenfalls sehr niedrig (0,4-0,5). Ich bezweifle, dass eine Bestätigungsfaktoranalyse eine gute Modellanpassung ergeben würde.
Wenn zwei Dimensionen entfernt würden, wäre das Cronbachs-Alpha akzeptabel (0,76,0,7 mit 10 Elementen pro Skala, die mit der ordinalen Version von Cronbachs-Alpha noch vergrößert werden könnten), aber die Skalen selbst wären immer noch mehrdimensional!
Da ich neu in der Statistik bin und nicht über die entsprechenden Kenntnisse verfüge, weiß ich nicht, wie ich weiter vorgehen soll. Da ich es ablehne, die Skala (n) vollständig zu verwerfen und mich einem beschreibenden Ansatz zu widersetzen, habe ich verschiedene Fragen:
I) Ist es falsch, Skalen zu verwenden, die zuverlässig, gültig, aber nicht eindimensional sind?
II) Wäre es angemessen, das Konzept anschließend als formativ zu interpretieren und den Test auf verschwindende Tetraden zu verwenden, um die Modellspezifikation zu bewerten und partielle kleinste Quadrate (PLS) zu verwenden, um zu einer möglichen Lösung zu gelangen? Schließlich scheint das Konzept eher prägend als reflektierend zu sein.
III) Wäre die Verwendung der Item-Response-Modelle (Rasch, GRM usw.) von Nutzen? Wie ich gelesen habe, brauchen die Rasch-Modelle usw. auch die Annahme Eindimensionalität
IV) Wäre es angemessen, die 7 Faktoren als neue "Subskalen" zu verwenden? Verwerfen Sie einfach die alte Definition und verwenden Sie eine neue, die auf Faktorladungen basiert.
Ich würde mich über Gedanken dazu freuen :)
BEARBEITEN: Faktorladungen und Korrelationen hinzugefügt
> fa.res$fa
Factor Analysis using method = ml
Call: fa.poly(x = fl.omit, nfactors = 7, rotate = "oblimin", fm = "ml")
Faktorladungen, die aus der Faktormustermatrix und der Faktor-Interkorrelationsmatrix berechnet wurden, werden nur Werte über 0,2 angezeigt
quelle
Antworten:
Ich gehe davon aus, dass der Zweck Ihrer Analyse darin besteht, Beweise für die Gültigkeit Ihrer Waage / Ihres Instruments zu erhalten. Daher wurde Ihr Instrument zunächst auf der Grundlage von 4 hypothetischen Konstrukten entworfen. Daher sollten Sie dies mithilfe einer Bestätigungsfaktoranalyse (CFA) angehen. Die explorative Faktoranalyse (EFA) ist geeignet, wenn es keine A-priori-Theorie gibt, die die Beziehung zwischen beobachteten Variablen (dh Elementen) und Konstrukten beschreibt, und kann zu nicht interpretierbaren Faktoren führen, wie Sie hier sehen.
Überprüfen Sie dann die Ergebnisse Ihres CFA-Modells. Die verschiedenen Anpassungsstatistiken (z. B. X ^ 2, RMSEA, Änderungsindizes, Waldteststatistiken) können Sie durch die Verfeinerung Ihres Modells führen.
Wenn Sie einen explorativeren Ansatz bevorzugen, ziehen Sie auch die "Rückwärtssuche" in Betracht: Chou CP, Bentler, PM (2002). Modellmodifikation bei der Modellierung von Strukturgleichungen durch Auferlegen von Einschränkungen, Computational Statistics & Data Analysis, 41, (2), 271-287.
quelle
Eine schwierige Situation. Die Faktoren 6, 4 und 7 scheinen ziemlich robust gemessen zu sein, aber nicht die anderen, und ich wette, dass die interne Konsistenz für die Faktoren 1, 3 und 5 gering sein wird. Ist es überhaupt möglich, die Zuverlässigkeit durch eine andere Methode zu bewerten, wie z als Interrater rel.? Oder um die Validität durch eine andere Methode als die Konstruktvalidität durch Faktoranalyse zu bewerten? Selbst wenn verschiedene Skalen (oder einzelne Elemente) auf unterschiedliche Weise validiert werden - manchmal müssen Sie alles nehmen, was Sie können.
Auf jeden Fall konnte ich sehen, wie ich v6 und v17 einzeln verwendete. Warum sie in eine Skala mit mehreren Elementen zwingen, wenn die Ladungen und Korrelationen so aussehen?
Und selbst angesichts dessen, was ich oben über die Gültigkeit der Berichterstattung gesagt habe, stimme ich zu, dass Sie Ihre eventuellen Regressionsprädiktoren so gut wie eindimensional halten möchten - zumal Sie eine große Anzahl von Prädiktoren haben, da das Wasser bei mehrdimensionalen Variablen sehr, sehr schlammig wird . Dies ist besonders relevant, da Sie anscheinend eher einen erklärenden als einen rein prädiktiven Modus verwenden (Sie kümmern sich um die Kausalität).
quelle