Wie ist die Verteilung von in linearer Regression unter der Nullhypothese? Warum ist sein Modus nicht bei Null, wenn ?

26

Wie ist die Verteilung des Bestimmtheitsmaßes oder des quadratischen bei linearer univariater multipler Regression unter der Nullhypothese ?R2R2H0:β=0H0:β=0

Wie hängt es von der Anzahl der Prädiktoren kk und der Anzahl der Stichproben n>kn>k ? Gibt es einen Ausdruck in geschlossener Form für den Modus dieser Distribution?

Insbesondere habe ich das Gefühl, dass für eine einfache Regression (mit einem Prädiktor xx ) diese Verteilung den Modus Null hat, aber für eine multiple Regression ist der Modus ein positiver Wert ungleich Null. Wenn dies tatsächlich zutrifft, gibt es eine intuitive Erklärung für diesen "Phasenübergang"?


Aktualisieren

Wie @Alecos unten zeigte, ist die Verteilung tatsächlich bei Null, wenn k=2k=2 und k=3k=3 und nicht bei Null, wenn k>3k>3 . Ich denke, dass es eine geometrische Sicht auf diesen Phasenübergang geben sollte. Betrachten Sie die geometrische Ansicht von OLS: yy ist ein Vektor in RnRn , XX definiert dort einen kk dimensionalen Unterraum. OLS entspricht der Projektion von yy auf diesen Unterraum, und R2R2 ist der Kosinusquadrat des Winkels zwischen yy und seiner Projektion ˆyy^ .

Aus der Antwort von @ Alecos folgt nun, dass, wenn alle Vektoren zufällig sind, die Wahrscheinlichkeitsverteilung dieses Winkels für k = 2 und k = 3 einen Spitzenwert von 90 ^ \ circ hat , jedoch einen Modus mit einem anderen Wert <90 ^ \ circ für k> 3 . Warum?!9090k=2k=2k=3k=3<90<90k>3k>3


Update 2: Ich akzeptiere die Antwort von @ Alecos, habe aber immer noch das Gefühl, dass mir hier einige wichtige Erkenntnisse fehlen. Wenn irgendjemand jemals eine andere (geometrische oder nicht) Sichtweise auf dieses Phänomen vorschlägt, die es "offensichtlich" machen würde, würde ich gerne ein Kopfgeld anbieten.

Amöbe sagt Reinstate Monica
quelle
1
Sind Sie bereit, die Normalität von Fehlern anzunehmen?
Dimitriy V. Masterov
1
Ja, ich denke, man muss davon ausgehen, dass diese Frage beantwortbar ist (?).
Amöbe sagt Reinstate Monica
1
Haben Sie diese davegiles.blogspot.jp/2013/05/good-old-r-squared.html überprüft ?
Khashaa
1
@Khashaa: In der Tat muss ich zugeben, dass ich diese Blogspot-Seite gefunden habe, bevor ich meine Frage hier poste. Ehrlich gesagt wollte ich immer noch eine Diskussion über dieses Phänomen in unserem Forum haben, also tat ich so, als hätte ich das nicht gesehen.
Amöbe sagt Reinstate Monica
1
Stark verwandte CV Frage stats.stackexchange.com/questions/123651/…
Alecos Papadopoulos

Antworten:

33

Für die spezifische Hypothese (dass alle Regressorkoeffizienten Null sind, ohne den konstanten Term, der in diesem Test nicht untersucht wird) und unter Normalbedingungen wissen wir (siehe z. B. Maddala 2001, S. 155, aber beachten Sie, dass dort k die Regressoren ohne den konstanten Term, daher sieht der Ausdruck ein bisschen anders aus als die Statistikk

F = n - kk - 1 R21 - R 2 istals ein zentraler verteiltF(k-1,n-k)Zufallsvariable.

F=nkk1R21R2
F(k1,nk)

Beachten Sie, dass wir den konstanten Term zwar nicht testen, k ihn aber auch zählt.k

Dinge bewegen,

( K - 1 ) F - ( k - 1 ) F R 2 = ( n - k ) R 2( k - 1 ) F = R 2 [ ( n - k ) + ( k - 1 ) F ]

(k1)F(k1)FR2=(nk)R2(k1)F=R2[(nk)+(k1)F]

R 2 = ( k - 1 ) F( n - k ) + ( k - 1 ) F

R2=(k1)F(nk)+(k1)F

Die rechte Seite wird jedoch speziell als Beta-Distribution vertrieben

R 2B e t a ( k - 12 ,n-k2 )

R2Beta(k12,nk2)

Der Modus dieser Distribution ist

Modus R 2 = k - 12 -1k - 12 +n-k2 -2=k-3n - 5

modeR2=k121k12+nk22=k3n5

ENDLICHER UND EINZIGARTIGER MODUS
Aus der obigen Beziehung können wir schließen, dass die Distribution einen eindeutigen und endlichen Modus haben muss

k 3 , n > 5

k3,n>5

Dies steht im Einklang mit den allgemeinen Anforderungen für eine Beta-Distribution

{ α > 1 , β 1 } ,ODER{ α 1 , β > 1 }

{α>1,β1},OR{α1,β>1}

wie man aus diesem CV-Thread entnehmen oder hier lesen kann .
Beachten Sie, dass wenn { α = 1 , β = 1 } , wir die gleichmäßige Verteilung erhalten, so dass alle Dichtepunkte Moden sind (endlich, aber nicht eindeutig). Was die Frage aufwirft : Warum ist R 2 , wenn k = 3 , n = 5 , als U ( 0 , 1 ) verteilt ?{α=1,β=1}k=3,n=5R2U(0,1)

AUSWIRKUNGEN
Angenommen, Sie haben k = 5 Regressoren (einschließlich der Konstanten) und n = 99 Beobachtungen. Ziemlich schöne Regression, keine Überanpassung. Dannk=5n=99

R 2 | β = 0 ~ B e t a ( 2 , 47 ) , Modus R 2 = 1470,021

R2β=0Beta(2,47),modeR2=1470.021

und Dichtediagramm

enter image description here

Intuition bitte: Dies ist die Verteilung von R 2 unter der Hypothese, dass kein Regressor tatsächlich zur Regression gehört. A) Die Verteilung ist also unabhängig von den Regressoren. B) Mit zunehmender Stichprobengröße konzentriert sich die Verteilung auf Null, da die erhöhte Information die Variabilität kleiner Stichproben überschwemmt, die zu einer gewissen "Anpassung" führen kann. C) Die Anzahl irrelevanter Regressoren Wenn sich die Stichprobengröße erhöht, konzentriert sich die Verteilung auf 1 , und wir haben das Phänomen der "falschen Anpassung". R21

Beachten Sie aber auch, wie "einfach" es ist, die Nullhypothese abzulehnen: In dem speziellen Beispiel hat die kumulative Wahrscheinlichkeit für R 2 = 0,13 bereits 0,99 erreicht , so dass ein erhaltenes R 2 > 0,13 die Null von "unbedeutender Regression" bei abzulehnen Signifikanzniveau 1 %.R2=0.130.99R2>0.131

ADDENDUM
Um auf das neue Problem in Bezug auf den Modus der R 2 -Verteilung zu antworten , kann ich die folgende (nicht geometrische) Überlegung anbieten, die es mit dem Phänomen der "falschen Anpassung" verknüpft: Wenn wir kleinste Quadrate für einen Datensatz ausführen Wir lösen im Wesentlichen ein System von n linearen Gleichungen mit k Unbekannten (der einzige Unterschied zur High-School-Mathematik besteht darin, dass wir damals "bekannte Koeffizienten" nannten, was wir in der linearen Regression "Variablen / Regressoren", "unbekannt x" nennen, was wir Nennen wir nun "unbekannte Koeffizienten" und "konstante Terme", was wir als "abhängige Variable" bezeichnen. Solange k < n istR2nkk<ndas System ist überidentifiziert und es gibt keine exakte Lösung, nur eine ungefähre, und der Unterschied ergibt sich als "ungeklärte Varianz der abhängigen Variablen", die von 1 - R 2 erfasst wird . Wenn k = n ist , hat das System eine exakte Lösung (unter der Annahme einer linearen Unabhängigkeit). In der Zwischenzeit verringern wir mit zunehmender Anzahl von k den "Grad der Überidentifizierung" des Systems und "nähern" uns der einzelnen exakten Lösung. Unter dieser Sichtweise ist es sinnvoll, warum R 2 mit der Addition irrelevanter Regressionen störend ansteigt und sich folglich seine Mode allmählich in Richtung 1 bewegt , wenn k für gegebene Fälle ansteigt1R2k=nkR21kn .n

Alecos Papadopoulos
quelle
1
Es ist mathematisch. Für k = 2 wird der erste Parameter der Beta-Verteilung (das " α " in Standardnotation) kleiner als Eins. In diesem Fall hat die Beta-Distribution keinen endlichen Modus. Spielen Sie mit keisan.casio.com/exec/system/1180573226 , um zu sehen, wie sich die Formen ändern. k=2α
Alecos Papadopoulos
1
@ Alecos Ausgezeichnete Antwort! (+1) Kann ich Ihnen dringend empfehlen, Ihrer Antwort die Voraussetzung für die Existenz des Modus hinzuzufügen? Dies wird normalerweise als α > 1 und β > 1 angegeben, aber subtiler ist es in Ordnung, wenn die Gleichheit in einem der beiden gilt ... Ich denke für unsere Zwecke wird dies zu k 3 und n k + 2 und mindestens einem von Diese Ungleichungen sind streng . α>1β>1k3 nk+2
Silverfish
2
@Khashaa Außer wenn die Theorie es verlangt, schließe ich den Achsenabschnitt niemals von der Regression aus - es ist das durchschnittliche Niveau der abhängigen Variablen, Regressoren oder keine Regressoren (und dieses Niveau ist normalerweise positiv, also wäre es eine dumm selbst erstellte Fehlspezifikation) weglassen). Aber ich schließe es immer aus dem F-Test der Regression aus, da es mir nicht darum geht, ob die abhängige Variable einen bedingungslosen Mittelwert ungleich Null hat, sondern ob die Regressoren irgendeine Aussagekraft in Bezug auf Abweichungen von diesem Mittelwert haben.
Alecos Papadopoulos
1
+1! Are there results for the distribution of R2R2 for nonzero βjβj?
Christoph Hanck
1
@ChristophHanck See also davegiles.blogspot.jp/2013/05/good-old-r-squared.html
Alecos Papadopoulos
18

I won't rederive the Beta(k12,nk2)Beta(k12,nk2) distribution in @Alecos's excellent answer (it's a standard result, see here for another nice discussion) but I want to fill in more details about the consequences! Firstly, what does the null distribution of R2R2 look like for a range of values of nn and kk? The graph in @Alecos's answer is quite representative of what occurs in practical multiple regressions, but sometimes insight is gleaned more easily from smaller cases. I've included the mean, mode (where it exists) and standard deviation. The graph/table deserves a good eyeball: best viewed at full-size. I could have included less facets but the pattern would have been less clear; I have appended R code so that readers can experiment with different subsets of nn and kk.

Distribution of R2 for small sample sizes

Values of shape parameters

The graph's colour scheme indicates whether each shape parameter is less than one (red), equal to one (blue), or more than one (green). The left-hand side shows the value of αα while ββ is on the right. Since α=k12α=k12, its value increases in arithmetic progression by a common difference of 1212 as we move right from column to column (add a regressor to our model) whereas, for fixed nn, β=nk2β=nk2 decreases by 1212. The total α+β=n12α+β=n12 is fixed for each row (for a given sample size). If instead we fix kk and move down the column (increase sample size by 1), then αα stays constant and ββ increases by 1212. In regression terms, αα is half the number of regressors included in the model, and ββ is half the residual degrees of freedom. To determine the shape of the distribution we are particularly interested in where αα or ββ equal one.

The algebra is straightforward for αα: we have k12=1k12=1 so k=3k=3. This is indeed the only column of the facet plot that's filled blue on the left. Similarly α<1α<1 for k<3k<3 (the k=2k=2 column is red on the left) and α>1α>1 for k>3k>3 (from the k=4k=4 column onwards, the left side is green).

For β=1β=1 we have nk2=1nk2=1 hence k=n2k=n2. Note how these cases (marked with a blue right-hand side) cut a diagonal line across the facet plot. For β>1β>1 we obtain k<n2k<n2 (the graphs with a green left side lie to the left of the diagonal line). For β<1β<1 we need k>n2k>n2, which involves only the right-most cases on my graph: at n=kn=k we have β=0β=0 and the distribution is degenerate, but n=k1n=k1 where β=12β=12 is plotted (right side in red).

Since the PDF is f(x;α,β)xα1(1x)β1f(x;α,β)xα1(1x)β1, it is clear that if (and only if) α<1α<1 then f(x)f(x) as x0x0. We can see this in the graph: when the left side is shaded red, observe the behaviour at 0. Similarly when β<1β<1 then f(x)f(x) as x1x1. Look where the right side is red!

Symmetries

One of the most eye-catching features of the graph is the level of symmetry, but when the Beta distribution is involved, this shouldn't be surprising!

The Beta distribution itself is symmetric if α=βα=β. For us this occurs if n=2k1n=2k1 which correctly identifies the panels (k=2,n=3)(k=2,n=3), (k=3,n=5)(k=3,n=5), (k=4,n=7)(k=4,n=7) and (k=5,n=9)(k=5,n=9). The extent to which the distribution is symmetric across R2=0.5R2=0.5 depends on how many regressor variables we include in the model for that sample size. If k=n+12k=n+12 the distribution of R2R2 is perfectly symmetric about 0.5; if we include fewer variables than that it becomes increasingly asymmetric and the bulk of the probability mass shifts closer to R2=0R2=0; if we include more variables then it shifts closer to R2=1R2=1. Remember that kk includes the intercept in its count, and that we are working under the null, so the regressor variables should have coefficient zero in the correctly specified model.

There is also an obviously symmetry between distributions for any given nn, i.e. any row in the facet grid. For example, compare (k=3,n=9)(k=3,n=9) with (k=7,n=9)(k=7,n=9). What's causing this? Recall that the distribution of Beta(α,β)Beta(α,β) is the mirror image of Beta(β,α)Beta(β,α) across x=0.5x=0.5. Now we had αk,n=k12αk,n=k12 and βk,n=nk2βk,n=nk2. Consider k=nk+1k=nk+1 and we find:

αk,n=(nk+1)12=nk2=βk,n

αk,n=(nk+1)12=nk2=βk,n
βk,n=n(nk+1)2=k12=αk,n
βk,n=n(nk+1)2=k12=αk,n

So this explains the symmetry as we vary the number of regressors in the model for a fixed sample size. It also explains the distributions that are themselves symmetric as a special case: for them, k=kk=k so they are obliged to be symmetric with themselves!

This tells us something we might not have guessed about multiple regression: for a given sample size nn, and assuming no regressors have a genuine relationship with YY, the R2R2 for a model using k1k1 regressors plus an intercept has the same distribution as 1R21R2 does for a model with k1k1 residual degrees of freedom remaining.

Special distributions

When k=nk=n we have β=0β=0, which isn't a valid parameter. However, as β0β0 the distribution becomes degenerate with a spike such that P(R2=1)=1P(R2=1)=1. This is consistent with what we know about a model with as many parameters as data points - it achieves perfect fit. I haven't drawn the degenerate distribution on my graph but did include the mean, mode and standard deviation.

When k=2k=2 and n=3n=3 we obtain Beta(12,12)Beta(12,12) which is the arcsine distribution. This is symmetric (since α=βα=β) and bimodal (0 and 1). Since this is the only case where both α<1α<1 and β<1β<1 (marked red on both sides), it is our only distribution which goes to infinity at both ends of the support.

The Beta(1,1)Beta(1,1) distribution is the only Beta distribution to be rectangular (uniform). All values of R2R2 from 0 to 1 are equally likely. The only combination of kk and nn for which α=β=1α=β=1 occurs is k=3k=3 and n=5n=5 (marked blue on both sides).

The previous special cases are of limited applicability but the case α>1α>1 and β=1β=1 (green on left, blue on right) is important. Now f(x;α,β)xα1(1x)β1=xα1f(x;α,β)xα1(1x)β1=xα1 so we have a power-law distribution on [0, 1]. Of course it's unlikely we'd perform a regression with k=n2k=n2 and k>3k>3, which is when this situation occurs. But by the previous symmetry argument, or some trivial algebra on the PDF, when k=3k=3 and n>5n>5, which is the frequent procedure of multiple regression with two regressors and an intercept on a non-trivial sample size, R2R2 will follow a reflected power law distribution on [0, 1] under H0H0. This corresponds to α=1α=1 and β>1β>1 so is marked blue on left, green on right.

You may also have noticed the triangular distributions at (k=5,n=7)(k=5,n=7) and its reflection (k=3,n=7)(k=3,n=7). We can recognise from their αα and ββ that these are just special cases of the power-law and reflected power-law distributions where the power is 21=121=1.

Mode

If α>1α>1 and β>1β>1, all green in the plot, f(x;α,β)f(x;α,β) is concave with f(0)=f(1)=0f(0)=f(1)=0, and the Beta distribution has a unique mode α1α+β2α1α+β2. Putting these in terms of kk and nn, the condition becomes k>3k>3 and n>k+2n>k+2 while the mode is k3n5k3n5.

All other cases have been dealt with above. If we relax the inequality to allow β=1β=1, then we include the (green-blue) power-law distributions with k=n2k=n2 and k>3k>3 (equivalently, n>5n>5). These cases clearly have mode 1, which actually agrees with the previous formula since (n2)3n5=1(n2)3n5=1. If instead we allowed α=1α=1 but still demanded β>1β>1, we'd find the (blue-green) reflected power-law distributions with k=3k=3 and n>5n>5. Their mode is 0, which agrees with 33n5=033n5=0. However, if we relaxed both inequalities simultaneously to allow α=β=1α=β=1, we'd find the (all blue) uniform distribution with k=3k=3 and n=5n=5, which does not have a unique mode. Moreover the previous formula can't be applied in this case, since it would return the indeterminate form 3355=003355=00.

When n=kn=k we get a degenerate distribution with mode 1. When β<1β<1 (in regression terms, n=k1n=k1 so there is only one residual degree of freedom) then f(x)f(x) as x1x1, and when α<1α<1 (in regression terms, k=2k=2 so a simple linear model with intercept and one regressor) then f(x)f(x) as x0x0. These would be unique modes except in the unusual case where k=2k=2 and n=3n=3 (fitting a simple linear model to three points) which is bimodal at 0 and 1.

Mean

The question asked about the mode, but the mean of R2R2 under the null is also interesting - it has the remarkably simple form k1n1k1n1. For a fixed sample size it increases in arithmetic progression as more regressors are added to the model, until the mean value is 1 when k=nk=n. The mean of a Beta distribution is αα+βαα+β so such an arithmetic progression was inevitable from our earlier observation that, for fixed nn, the sum α+βα+β is constant but αα increases by 0.5 for each regressor added to the model.

αα+β=(k1)/2(k1)/2+(nk)/2=k1n1

αα+β=(k1)/2(k1)/2+(nk)/2=k1n1

Code for plots

require(grid)
require(dplyr)

nlist <- 3:9 #change here which n to plot
klist <- 2:8 #change here which k to plot

totaln <- length(nlist)
totalk <- length(klist)

df <- data.frame(
    x = rep(seq(0, 1, length.out = 100), times = totaln * totalk),
    k = rep(klist, times = totaln, each = 100),
    n = rep(nlist, each = totalk * 100)
)

df <- mutate(df,
    kname = paste("k =", k),
    nname = paste("n =", n),
    a = (k-1)/2,
    b = (n-k)/2,
    density = dbeta(x, (k-1)/2, (n-k)/2),
    groupcol = ifelse(x < 0.5, 
        ifelse(a < 1, "below 1", ifelse(a ==1, "equals 1", "more than 1")),
        ifelse(b < 1, "below 1", ifelse(b ==1, "equals 1", "more than 1")))
)

g <- ggplot(df, aes(x, density)) +
    geom_line(size=0.8) + geom_area(aes(group=groupcol, fill=groupcol)) +
    scale_fill_brewer(palette="Set1") +
    facet_grid(nname ~ kname)  + 
    ylab("probability density") + theme_bw() + 
    labs(x = expression(R^{2}), fill = expression(alpha~(left)~beta~(right))) +
    theme(panel.margin = unit(0.6, "lines"), 
        legend.title=element_text(size=20),
        legend.text=element_text(size=20), 
        legend.background = element_rect(colour = "black"),
        legend.position = c(1, 1), legend.justification = c(1, 1))


df2 <- data.frame(
    k = rep(klist, times = totaln),
    n = rep(nlist, each = totalk),
    x = 0.5,
    ymean = 7.5,
    ymode = 5,
    ysd = 2.5
)

df2 <- mutate(df2,
    kname = paste("k =", k),
    nname = paste("n =", n),
    a = (k-1)/2,
    b = (n-k)/2,
    meanR2 = ifelse(k > n, NaN, a/(a+b)),
    modeR2 = ifelse((a>1 & b>=1) | (a>=1 & b>1), (a-1)/(a+b-2), 
        ifelse(a<1 & b>=1 & n>=k, 0, ifelse(a>=1 & b<1 & n>=k, 1, NaN))),
    sdR2 = ifelse(k > n, NaN, sqrt(a*b/((a+b)^2 * (a+b+1)))),
    meantext = ifelse(is.nan(meanR2), "", paste("Mean =", round(meanR2,3))),
    modetext = ifelse(is.nan(modeR2), "", paste("Mode =", round(modeR2,3))),
    sdtext = ifelse(is.nan(sdR2), "", paste("SD =", round(sdR2,3)))
)

g <- g + geom_text(data=df2, aes(x, ymean, label=meantext)) +
    geom_text(data=df2, aes(x, ymode, label=modetext)) +
    geom_text(data=df2, aes(x, ysd, label=sdtext))
print(g)
Silverfish
quelle
1
Really illuminating visualization. +1
Khashaa
Great addition, +1, thanks. I noticed that you call 00 a mode when the distribution goes to ++ when x0x0 (and nowhere else) -- something @Alecos above (in the comments) did not want to do. I agree with you: it is convenient.
amoeba says Reinstate Monica
1
@amoeba from the graphs we'd like to say "values around 0 are most likely" (or 1). But the answer of Alecos is also both self-consistent and consistent with many authorities (people differ on what to do about the 0 and 1 full stop, let alone whether they can count as a mode!). My approach to the mode differs from Alecos mostly because I use conditions on alpha and beta to determine where the formula is applicable, rather than taking my starting point as the formula and seeing which k and n give sensible answers.
Silverfish
1
(+1), this is a very meaty answer. By keeping kk too close to nn and both small, the question studies in detail, and so decisively, the case of really small samples with relatively too many and irrelevant regressors.
Alecos Papadopoulos
@amoeba You probably noticed that this answer furnishes an algebraic answer for why, for sufficiently large nn, the mode of the distribution is 0 for k=3k=3 but positive for k>3k>3. Since f(x)x(k3)/2(1x)(nk2)/2f(x)x(k3)/2(1x)(nk2)/2 then for k=3k=3 we have f(x)(1x)(n5)/2f(x)(1x)(n5)/2 which will clearly have mode at 0 for n>5n>5, whereas for k=4k=4 we have f(x)x1/2(1x)(n6)/2f(x)x1/2(1x)(n6)/2 whose maximum can be found by calculus to be the quoted mode formula. As kk increases, the power of xx rises by 0.5 each time. It's this xα1xα1 factor which makes f(0)=0f(0)=0 so kills the mode at 0
Silverfish