Ich weiß, dass der Mittelwert der Summe unabhängiger Variablen die Summe der Mittelwerte jeder unabhängigen Variablen ist. Gilt das auch für abhängige Variablen?
mean
non-independent
Gh75m
quelle
quelle
Antworten:
Erwartung (Mittelwertbildung) ist ein linearer Operator .
Dies bedeutet unter anderem, dassE(X+Y)=E(X)+E(Y) für zwei beliebige Zufallsvariablen X und Y. (für die die Erwartungen bestehen), unabhängig davon, ob sie unabhängig sind oder nicht.
Wir können (zB durch verallgemeinern Induktion ) , so daßE ( ∑ni = 1Xich) = ∑ni = 1E ( Xich) , solange jede Erwartung E ( Xich) existiert.
Also ja, der Mittelwert der Summe ist der gleiche wie der Mittelwert, auch wenn die Variablen abhängig sind. Beachten Sie jedoch, dass dies nicht für die Varianz gilt! Während alsoV a r (X+ Y) = V a r ( X) + V a r ( Y) für die unabhängigen Variablen, oder auch Variablen, die abhängig , aber nicht korreliert , die allgemeine Formel V a r (X+ Y) =V a r ( X) +V a r ( Y) + 2 C o v (X, Y) , wobeiC o v ist dieKovarianzder Variablen.
quelle
TL; DR:
Unter der Annahme, dass es existiert, ist der Mittelwert ein Erwartungswert und der Erwartungswert ein Integral, und die Integrale haben die Linearitätseigenschaft in Bezug auf Summen.
TS; DR:Yn=∑ni=1Xi E(Yn) X n und deren Gelenkstütze
D = S X 1 × . . . × S X n
Nach demGesetz des unbewussten Statistikers haben wir dasmultipleIntegralfX(x)=fX1,...,Xn(x1,...,xn) D=SX1×...×SXn
Da es sich um die Summe der Zufallsvariablen , dh um eine Funktion vieler von ihnen, ist der Mittelwert der Summe E ( Y n ) in Bezug auf ihre gemeinsame Verteilung ( nehmen wir an , dass alle Mittel vorhanden sind und finite) Bezeichnen x die multivariate Vektor der N RV, ihre gemeinsame Dichte kann geschrieben werden als f x ( x ) = f x 1 , . . . , X
.
Unter bestimmten Regularitätsbedingungen können wir das multiple Integral in ein iteratives Integral zerlegen:n
und unter Verwendung der Linearität von Integralen, in die wir zerlegen können
For eachn -iterative integral we can re-arrange the order of integration so that, in each, the outer integration is with respect to the variable that is outside the joint density. Namely,
and in general
As we calculate one-by-one the integral in eachn -iterative integral (starting from the inside), we "integrate out" a variable and we obtain in each step the "joint-marginal" distribution of the other variables. Each n -iterative integral therefore will end up as ∫SXjxjfXj(xj)dxj .
Bringing it all together we arrive at
But now each simple integral is the expected value of each random variable separately, so
Note that we never invoked independence or non-independence of the random variables involved, but we worked solely with their joint distribution.
quelle