Mit welcher Wahrscheinlichkeit ist eine Münze besser als die andere?

8

Nehmen wir an, wir haben zwei voreingenommene Münzen C1und C2beide haben eine unterschiedliche Wahrscheinlichkeit, den Kopf zu drehen.

Wir werfen C1 n1Zeiten und bekommen H1Köpfe, C2 n2Zeiten und bekommen H2Köpfe. Und wir stellen fest, dass das Verhältnis der Köpfe für eine Münze höher ist als für die andere.

Mit welcher Wahrscheinlichkeit können wir sagen, dass eine Münze besser ist als die andere? (Besser bedeutet hier eine höhere tatsächliche Wahrscheinlichkeit, den Kopf zu drehen).

Thirupathi Thangavel
quelle
2
Ist dies nicht ein Problem beim Testen von Hypothesen, bei dem Sie testen müssen, ob die Schätzungen der Wahrscheinlichkeit, dass die Köpfe für die Münzen auftauchen, unterschiedlich sind?
naiv
3
Wenn Sie die Wahrscheinlichkeit haben möchten, dass eine Münze besser ist als eine andere, können Sie dies mit einem Bayes'schen Ansatz tun. Alles, was Sie brauchen, ist eine vorherige Verteilung der Wahrscheinlichkeit. Es ist eine ziemlich einfache Berechnung.
Glen_b -Reinstate Monica
2
Es gibt keine Möglichkeit, mit diesen Daten die Wahrscheinlichkeit zu bestimmen, dass eine Münze besser ist als die andere . Sie benötigen zusätzliche Informationen / Annahmen zu einer vorherigen Verteilung für die Verteilung von Münzen. Sprich in einem Bayes - Ansatz dann wird das Ergebnis unterscheiden sich eine Menge auf der Grundlage Ihrer vorherigen Annahmen. Zum Beispiel, wenn diese Münzen reguläre Münzen sind, als sie (a priori) sehr wahrscheinlich gleich sind, und Sie eine große Anzahl von Versuchen benötigen würden, um eine angemessene Wahrscheinlichkeit zu finden, dass eine "besser" als die andere ist (weil die Wahrscheinlichkeit hoch ist, dass Sie habe zwei ähnliche Münzen, die versehentlich unterschiedlich getestet wurden)
Sextus Empiricus
1
@katosh, es ist so genau wie der vorherige. Angenommen, Sie haben Münzen zwischen p = 0,49 und p = 0,51. Wenn Sie in diesem Fall davon ausgehen, dass die Münzen gleichmäßig zwischen 0 und 1 verteilt sind, ähneln die von Ihnen zugewiesenen Wahrscheinlichkeiten eher aktualisierten fehlerhaften Annahmen als aktualisierten Wahrscheinlichkeiten. Sie werden zu oft der falschen Münze eine hohe Wahrscheinlichkeit zuweisen, "besser" zu sein. Es wäre falsch, das Ergebnis als "die" Wahrscheinlichkeit zu betrachten, dass die Münze "besser" ist als die andere. Schlechte Daten rein = schlechte Ergebnisse raus. In diesem Problem sollten wir nicht an der Lösung der Mathematik arbeiten, sondern an der Lösung des Wissens.
Sextus Empiricus
1
Auf diese Weise wird es richtig angegeben. Es ist ein "Glaube" und dies ist nicht so leicht mit einer "Wahrscheinlichkeit" gleichzusetzen.
Sextus Empiricus

Antworten:

7

Es ist einfach, die Wahrscheinlichkeit für diese Beobachtung zu berechnen, da die beiden Münzen gleich sind. Dies kann durch einen genauen Fishers-Test erfolgen . Angesichts dieser Beobachtungen

coin 1coin 2headsH1H2tailsn1H1n2H2

die Wahrscheinlichkeit , diese Zahlen zu beobachten , während die Münzen gleich die Anzahl von Versuchen gegeben sind n1 , n2 und die Gesamtmenge der Köpfe H1+H2 ist ,

p(H1,H2|n1,n2,H1+H2)=(H1+H2)!(n1+n2H1H2)!n1!n2!H1!H2!(n1H1)!(n2H2)!(n1+n2)!.

Aber was Sie fragen, ist die Wahrscheinlichkeit, dass eine Münze besser ist. Da wir uns darüber streiten, wie voreingenommen die Münzen sind, müssen wir einen Bayes'schen Ansatz verwenden , um das Ergebnis zu berechnen. Bitte beachten Sie, dass in der Bayes'schen Inferenz der Begriff Glaube als Wahrscheinlichkeit modelliert wird und die beiden Begriffe austauschbar verwendet werden (s. Bayes'sche Wahrscheinlichkeit ). Wir nennen die Wahrscheinlichkeit, dass die Münze i Köpfe wirft, pi . Die posteriore Verteilung nach Beobachtung für dieses pi ist durch den Satz von Bayes gegeben :

f(pi|Hi,ni)=f(Hi|pi,ni)f(pi)f(ni,Hi)
Die Wahrscheinlichkeitsdichtefunktion (pdf)f(Hi|pi,ni)ist durch die Binomialwahrscheinlichkeit gegeben, da die einzelnen Versuche Bernoulli-Experimente sind: Ichdavon aus, dassdas Vorwissen überbesteht, dassmit gleicher Wahrscheinlichkeitirgendwo zwischenundliegen könnte, daher. Der Nominator ist also
f(Hi|pi,ni)=(niHi)piHi(1pi)niHi
f(pi)pi01f(pi)=1f(Hi|pi,ni)f(pi)=f(Hi|pi,nif(pi)pi01f(pi)=1f(Hi|pi,ni)f(pi)=f(Hi|pi,ni) .

Um zu berechnen wir die Tatsache, dass das Integral über einem PDF eins sein muss . Der Nenner wird also ein konstanter Faktor sein, um genau das zu erreichen. Es ist ein PDF bekannt, das sich vom Nominator nur durch einen konstanten Faktor unterscheidet, nämlich die Beta-Verteilung . Daher ist f(ni,Hi)01f(p|Hi,ni)dp=1

f(pi|Hi,ni)=1B(Hi+1,niHi+1)piHi(1pi)niHi.

Das pdf für das Wahrscheinlichkeitspaar unabhängiger Münzen ist

f(p1,p2|H1,n1,H2,n2)=f(p1|H1,n1)f(p2|H2,n2).

Jetzt müssen wir dies über die Fälle integrieren, in denen , um herauszufinden, wie wahrscheinlich Münze besser ist als Münze : p1>p212

P(p1>p2)=010p1f(p1,p2|H1,n1,H2,n2)dp2dp1=01B(p1;H2+1,n2H2+1)B(H2+1,n2H2+1)f(p1|H1,n1)dp1

Ich kann dieses letzte Integral nicht analytisch lösen, aber man kann es mit einem Computer numerisch lösen, nachdem man die Zahlen eingegeben hat. ist die Beta-Funktion und ist die unvollständige Beta-Funktion. Beachten Sie, dass da eine fortlaufende Variable ist und niemals genau mit identisch ist .B(,)B(;,)P(p1=p2)=0p1p2


In Bezug auf die vorherige Annahme zu und Anmerkungen dazu: Eine gute Alternative zum Modell, von der viele glauben, ist die Verwendung einer Beta-Verteilung . Dies würde zu einer endgültigen Wahrscheinlichkeit führen: Auf diese Weise könnte man eine starke Tendenz zu regulären Münzen im Großen und Ganzen modellieren, aber gleich , . Es wäre gleichbedeutend damit, die Münze zusätzliche Male zu werfen und Köpfe zu empfangen, was gleichbedeutend wäre, nur mehr Daten zu haben. ist die Anzahl der Würfe, die wir nicht machen müsstenf(pi)Beta(ai+1,bi+1)

P(p1>p2)=01B(p1;H2+1+a2,n2H2+1+b2)B(H2+1+a2,n2H2+1+b2)f(p1|H1+a1,n1+a1+b1)dp1.
aibiai+biaiai+bi wenn wir dies vorher einschließen.

Das OP gab an, dass beide Münzen in unbekanntem Maße voreingenommen sind. Ich habe also verstanden, dass alles Wissen aus den Beobachtungen abgeleitet werden muss. Aus diesem Grund habe ich mich für einen nicht informativen Vorgänger entschieden , der das Ergebnis nicht in Richtung normaler Münzen verzerrt.

Alle Informationen können in Form von pro Münze übermittelt werden . Das Fehlen eines informativen Prior bedeutet nur, dass mehr Beobachtungen erforderlich sind, um zu entscheiden, welche Münze mit hoher Wahrscheinlichkeit besser ist.(Hi,ni)


Hier ist der Code in R, der eine Funktion Verwendung des einheitlichen Prior liefert : P(n1, H1, n2, H2) =P(p1>p2)f(pi)=1

mp <- function(p1, n1, H1, n2, H2) {
    f1 <- pbeta(p1, H2 + 1, n2 - H2 + 1)
    f2 <- dbeta(p1, H1 + 1, n1 - H1 + 1)
    return(f1 * f2)
}

P <- function(n1, H1, n2, H2) {
    return(integrate(mp, 0, 1, n1, H1, n2, H2))
}

Sie können für verschiedene experimentelle Ergebnisse zeichnen und , z. B. mit diesem Code festlegen:P(p1>p2)n1n2n1=n2=4

library(lattice)
n1 <- 4
n2 <- 4
heads <- expand.grid(H1 = 0:n1, H2 = 0:n2)
heads$P <- apply(heads, 1, function(H) P(n1, H[1], n2, H[2])$value)
levelplot(P ~ H1 + H2, heads, main = "P(p1 > p2)")

P (p1> p2) für n1 = n2 = 4

Möglicherweise müssen Sie install.packages("lattice")zuerst.

Man kann sehen, dass selbst mit dem einheitlichen Prior und einer kleinen Stichprobengröße die Wahrscheinlichkeit oder der Glaube, dass eine Münze besser ist, ziemlich solide werden kann, wenn sich und genug unterscheiden. Ein noch kleinerer relativer Unterschied ist erforderlich, wenn und noch größer sind. Hier ist ein Diagramm für und :H1H2n1n2n1=100n2=200

Geben Sie hier die Bildbeschreibung ein


Martijn Weterings schlug vor , die posteriore Wahrscheinlichkeitsverteilung für die Differenz zwischen und zu berechnen . Dies kann durch Integrieren des PDFs des Paares über die Menge : p1p2S(d)={(p1,p2)[0,1]2|d=|p1p2|}

f(d|H1,n1,H2,n2)=S(d)f(p1,p2|H1,n1,H2,n2)dγ=01df(p,p+d|H1,n1,H2,n2)dp+d1f(p,pd|H1,n1,H2,n2)dp

Auch hier kann ich kein Integral analytisch lösen, aber der R-Code wäre:

d1 <- function(p, d, n1, H1, n2, H2) {
    f1 <- dbeta(p, H1 + 1, n1 - H1 + 1)
    f2 <- dbeta(p + d, H2 + 1, n2 - H2 + 1)
    return(f1 * f2)
}

d2 <- function(p, d, n1, H1, n2, H2) {
    f1 <- dbeta(p, H1 + 1, n1 - H1 + 1)
    f2 <- dbeta(p - d, H2 + 1, n2 - H2 + 1)
    return(f1 * f2)
}

fd <- function(d, n1, H1, n2, H2) {
    if (d==1) return(0)
    s1 <- integrate(d1, 0, 1-d, d, n1, H1, n2, H2)
    s2 <- integrate(d2, d, 1, d, n1, H1, n2, H2)
    return(s1$value + s2$value)
}

Ich habe für , , und alle Werte von aufgetragen :f(d|n1,H1,n2,H2)n1=4H1=3n2=4H2

n1 <- 4
n2 <- 4
H1 <- 3
d <- seq(0, 1, length = 500)

get_f <- function(H2) sapply(d, fd, n1, H1, n2, H2)
dat <- sapply(0:n2, get_f)

matplot(d, dat, type = "l", ylab = "Density",
        main = "f(d | 4, 3, 4, H2)")
legend("topright", legend = paste("H2 =", 0:n2),
       col = 1:(n2 + 1), pch = "-")

Geben Sie hier die Bildbeschreibung ein

Sie können die Wahrscheinlichkeit von berechnen über einem Wert von liegen . Beachten Sie, dass die doppelte Anwendung des numerischen Integrals mit einem numerischen Fehler verbunden ist. ZB sollte immer gleich da immer einen Wert zwischen und annimmt . Das Ergebnis weicht jedoch häufig geringfügig ab.|p1p2|d1 d 0 1integrate(fd, d, 1, n1, H1, n2, H2)integrate(fd, 0, 1, n1, H1, n2, H2)1d01

Katosh
quelle
Ich kenne den tatsächlichen Wert von p1
Thirupathi Thangavel
1
Es tut mir leid für meine schlechte Notation 😅, aber Sie müssen keinen festen Wert für eingeben . Das (jetzt geänderte) im Integral ist die Variable, über die Sie integrieren. Genauso wie Sie ohne einen festen Wert für . p ' 1 1 0 x 2 d x xp1p101x2dxx
Katosh
1
Bei Fisher's genauem Test geht es insbesondere um die Hypothese, dass die Münzen die gleiche Wahrscheinlichkeit haben und die Grenzsummen festgelegt sind . Dies ist bei diesem Münzproblem nicht der Fall. Wenn Sie den Test erneut durchführen, können Sie eine andere Gesamtanzahl von Köpfen beobachten.
Sextus Empiricus
@MartijnWeterings in meinem Fall ist die Wahrscheinlichkeit, den Kopf für eine Münze zu drehen, immer festgelegt. Ist das nicht genug
Thirupathi Thangavel
1
@ThirupathiThangavel Das Problem mit dem Fisher-Test betrifft die nicht festgelegten Grenzsummen. Das genaue Testmodell geht davon aus, dass die Wahrscheinlichkeit von Köpfen gleich und fest ist, aber auch die Ränder vor dem Experiment festgelegt sind. Dieser zweite Teil ist nicht der Fall. Dies ergibt eine andere bedingte Wahrscheinlichkeit für Extremwerte. Insgesamt wird der Fisher-Test konservativ sein. Die Wahrscheinlichkeit des Ergebnisses bei gegebener TRUE-Hypothese (dh feste und ähnliche Wahrscheinlichkeit für Köpfe, aber nicht notwendigerweise feste Grenzsummen) ist kleiner als berechnet (Sie erhalten höhere p-Werte).
Sextus Empiricus
2

Ich habe eine numerische Simulation mit durchgeführt R, wahrscheinlich suchen Sie nach einer analytischen Antwort, aber ich dachte, dies könnte interessant zu teilen sein.

set.seed(123)
# coin 1
N1 = 20
theta1 = 0.7

toss1 <- rbinom(n = N1, size = 1, prob = theta1)

# coin 2
N2 = 25
theta2 = 0.5

toss2 <- rbinom(n = N2, size = 1, prob = theta2)

# frequency
sum(toss1)/N1 # [1] 0.65
sum(toss2)/N2 # [1] 0.52

In diesem ersten Code simuliere ich einfach zwei Münzwürfe. Hier kann man natürlich sehen, dass es theta1 > theta2dann natürlich die Frequenz von H1höher sein wird als H2. Beachten Sie die verschiedenen N1, N2Größen.

Mal sehen, was wir mit verschiedenen machen können thetas. Beachten Sie, dass der Code nicht optimal ist. Überhaupt.

simulation <- function(N1, N2, theta1, theta2, nsim = 100) {
  count1 <- count2 <- 0

  for (i in 1:nsim) {
    toss1 <- rbinom(n = N1, size = 1, prob = theta1)
    toss2 <- rbinom(n = N2, size = 1, prob = theta2)

    if (sum(toss1)/N1 > sum(toss2)/N2) {count1 = count1 + 1} 
    #if (sum(toss1)/N1 < sum(toss2)/N2) {count2 = count2 + 1} 
  }

  count1/nsim

}
set.seed(123)
simulation(20, 25, 0.7, 0.5, 100)
#[1] 0.93

0,93 ist also die Häufigkeit (von 100), bei der die erste Münze mehr Köpfe hatte. Dies scheint in Ordnung zu sein, betrachtet theta1und theta2verwendet.

Mal sehen mit zwei Vektoren von thetas.

theta1_v <- seq(from = 0.1, to = 0.9, by = 0.1)
theta2_v <- seq(from = 0.9, to = 0.1, by = -0.1)

res_v <- c()
for (i in 1:length(theta1_v)) {

  res <- simulation(1000, 1500, theta1_v[i], theta2_v[i], 100)
  res_v[i] <- res

}

plot(theta1_v, res_v, type = "l")

Denken Sie daran, dass dies res_vdie Frequenzen H1 > H2von 100 Simulationen sind.

Geben Sie hier die Bildbeschreibung ein

Wenn also theta1zunimmt, H1steigt natürlich die Wahrscheinlichkeit , höher zu sein.

Ich habe einige andere Simulationen gemacht und es scheint , dass die Größen N1, N2sind weniger wichtig.

Wenn Sie mit dem RCode vertraut sind , können Sie ihn mit diesem Code beleuchten. Mir ist bewusst, dass dies keine vollständige Analyse ist und verbessert werden kann.

RLave
quelle
2
Interessant, wie res_vsich ständig ändert, wenn sich die Thetas treffen. Ich verstand die Frage, als sie nach nur einer einzigen Beobachtung nach der intrinsischen Tendenz der Münzen fragte. Sie scheinen zu beantworten, welche Beobachtungen man machen würde, wenn man die Voreingenommenheit kennt.
Katosh