Was wäre der richtige Weg, um die 3-Punkt-Schießkonsistenz eines NBA-Spielers zu bewerten / zu bestimmen? Zum Beispiel habe ich einen Spieler, der 37% aus der 3-Punkte-Reichweite schießt und das ganze Jahr über 200 Versuche unternimmt.
Ich dachte darüber nach, den gleitenden Durchschnitt von 3 Punkten% einer beliebigen Anzahl von Schüssen zu nehmen (sagen wir 20). Verwenden Sie dann diese Mittelwerte, um die Standardabweichung vom Mittelwert von 37% zu bestimmen. Die Verwendung einer fortlaufenden Stichprobengröße von 20 Aufnahmen ermöglicht nur eine Genauigkeit von 5% des Aufnahmeprozentsatzes. Ich bin jedoch besorgt, dass die Verwendung zu vieler Aufnahmen die Inkonsistenzen in der Leistung nicht aufdeckt.
Gibt es einen besseren Ansatz zur Bestimmung der Konsistenz?
do an analysis of runs
...Antworten:
Wie ein anderer Benutzer in den obigen Kommentaren angegeben hat, ist ein Lauftest die Möglichkeit, Ihre Aufnahmedaten zu analysieren. Es testet die Hypothese, dass die Elemente der Sequenz voneinander unabhängig sind. Wenn die Hypothese abgelehnt wird, kann man sagen, dass das 3-Punkt-Schießen des Spielers inkonsistent ist.
Ich möchte Sie auch auf diesen Artikel hinweisen, da er in direktem Zusammenhang mit Ihrer Analyse steht.
quelle
Ich denke, ein Lauftest ist eine gute Idee. Für mich ist es Ihre Absicht, durch die Analyse der Daten in "Chunks" einen Proxy für oder eine Kontrolle für "Hot Hands" in der Spielerkonsistenz zu erstellen. Es gibt eine riesige Literatur zu diesem Phänomen. Eine der besten Veröffentlichungen wurde von Gelman bereits im Juli 2015 in seinem Blog diskutiert. Der Titel seines Beitrags lautete: "Hey, weißt du was? Es gibt wirklich eine heiße Hand!" ( http://andrewgelman.com/2015/07/09/hey-guess-what-there-really-is-a-hot-hand/ ). Das Papier, über das Gelman berichtet, ist eine Widerlegung eines Großteils der bisherigen Literatur, da es die Fehler beschreibt, die durch frühere Analysen des Phänomens der heißen Hände gemacht wurden. Die früheren Arbeiten konzentrierten sich auf allgemeine und nicht auf bedingte Wahrscheinlichkeiten. In diesem Artikel wird ein neues sequentielles Wahrscheinlichkeitsmodell vorgestellt (siehe Link für einen Verweis auf den Artikel).
Eine gute Konsistenzmetrik, die Unterschiede in der Anzahl der aufgenommenen Aufnahmen berücksichtigen sollte, ist der Variationskoeffizient. Der CV ist ein dimensionsloses, skalierungsinvariantes Maß für die Variabilität und wird berechnet, indem die Standardabweichung durch den Mittelwert dividiert wird. Das Problem, das es zu lösen versucht, besteht darin, dass Standardabweichungen in der Skala der zu messenden Einheit ausgedrückt werden, dh, sie ist nicht skalierungsinvariant. Dies bedeutet, dass Metriken mit hohen Durchschnittswerten tendenziell auch höhere Standardabweichungen aufweisen als Metriken mit niedrigen Durchschnittswerten. So sind beispielsweise Messungen der Variabilität des diastolischen und systolischen Blutdrucks aufgrund unterschiedlicher Durchschnittswerte nicht direkt vergleichbar. Durch die Aufnahme des Lebenslaufs wird ihre Variabilität vergleichbar. Das Gleiche gilt für viele andere Kennzahlen wie Aktienkurse,
Somit kann der Lebenslauf für viele Metriken und Skalentypen berechnet werden, ausgenommen kategoriale Informationen und Kennzahlen mit negativen Werten.
quelle