Ich habe einen Datensatz mit Projektfallstudien für eine neue Art von Forschungsmethode für Regierungsbehörden zur Unterstützung von Entscheidungsaktivitäten. Meine Aufgabe ist es, eine Schätzmethode zu entwickeln, die auf früheren Erfahrungen für zukünftige Projekte zu Schätzzwecken basiert.
Mein Datensatz ist auf 50 Fälle begrenzt. Ich habe mehr als 30 (potenzielle) Prädiktoren aufgezeichnet und eine Antwortvariable (dh Stunden, die für die Fertigstellung des Projekts benötigt werden).
Nicht alle Prädiktoren sind signifikant. Ich gehe davon aus, dass die Anzahl der Vorhersagevariablen bei schrittweisen Auswahlverfahren wahrscheinlich im Bereich von 5 bis 10 Variablen liegt. Obwohl ich Schwierigkeiten habe, einen Prädiktorsatz mit den Standardansätzen in Tools wie PASW (SPSS) zu erhalten.
Mir ist das gesamte Material bekannt, das über Faustregeln für Stichprobengrößen und Verhältnisse von Prädiktorvariablen zu Fallfällen spricht. Mein Dilemma ist, dass es fast 10 Jahre gedauert hat, um 50 Fälle zu sammeln, also ist es ungefähr so gut wie es nur geht.
Meine Frage ist, was ich tun soll, um das Beste aus diesem kleinen Beispielsatz herauszuholen.
Das sind gute Referenzen für den Umgang mit kleinen Smaple-Sets? Änderungen der p-Wert-Signifikanz? Änderungen an schrittweisen Auswahlansätzen? Verwendung von Transformationen wie Zentrierung oder Protokoll?
Jeder Rat wird geschätzt.
quelle
glmnet
glmnet
glm