Die Bedeutung von „positiver Abhängigkeit“ als Bedingung für die Verwendung der für die FDR-Kontrolle üblichen Methode

36

Benjamini und Hochberg entwickelten die erste (und meines Erachtens immer noch am weitesten verbreitete) Methode zur Kontrolle der Falschentdeckungsrate (FDR).

Ich möchte mit einer Reihe von P-Werten beginnen, von denen jeder für einen anderen Vergleich dient, und entscheiden, welche niedrig genug sind, um als "Entdeckung" bezeichnet zu werden, und den FDR auf einen bestimmten Wert (z. B. 10%) steuern. Eine Annahme der üblichen Methode ist, dass die Vergleichssätze entweder unabhängig sind oder eine "positive Abhängigkeit" aufweisen, aber ich kann nicht genau herausfinden, was dieser Ausdruck im Zusammenhang mit der Analyse eines Satzes von P-Werten bedeutet.

Harvey Motulsky
quelle
1
Vielen Dank, dass Sie mir das Kopfgeld für meine Antwort gegeben haben, Harvey! Würden Sie sagen, dass es dieses Problem für Sie löst, oder suchen Sie eine detailliertere Darstellung? Mir ist aufgefallen, dass Sie noch keine Antwort akzeptiert haben, deshalb möchte ich das klarstellen. Vielen Dank. Vielleicht können Sie Ihr Q kommentieren oder bearbeiten, um zu verdeutlichen, was Sie noch verdeutlichen möchten.
Amöbe sagt Reinstate Monica
2
@Amöbe. Die Frist für das Kopfgeld lag bei mir, und Ihre Antwort war bei weitem die beste. Ehrlich gesagt, kam mir in diesem Moment noch nie der Gedanke, dass das Geben eines Kopfgeldes auch die Antwort nicht akzeptierte. Aber ich weiß, dass das anders ist (ich gebe Jetlag die Schuld). Eine vollständige Antwort muss jedoch realistische Beispiele enthalten, bei denen die Menge der P-Werte eine positive Abhängigkeit aufweist und keine positive Abhängigkeit aufweist. Ich werde eine Woche lang keine Antwort annehmen, in der Hoffnung, dass jemand beide Arten von Beispielen nennen kann, damit die Bedeutung klar ist.
Harvey Motulsky
Dies ist wahrscheinlich kein wirklich befriedigendes Beispiel, aber es ist wirklich einfach, p-Werte mit und ohne positive Abhängigkeit zu finden, wenn wir über einseitige Tests für korrelierte Variablen nachdenken. Stellen Sie sich vor, ich prüfe, ob A = 0 und B = 0 für einseitige Alternativen (A> 0 und B> 0). Stellen Sie sich weiter vor, dass B von A abhängt. Stellen Sie sich zum Beispiel vor, ich möchte wissen, ob eine Population mehr Frauen als Männer enthält und ob die Population mehr Eierstöcke als Hoden enthält. Wenn wir den p-Wert der ersten Frage
genau kennen,
Danke, Harvey. Ich hoffe, es war klar, dass ich nicht versucht habe, Sie zur Annahme meiner Antwort (!!) zu drängen, sondern zu klären, nach welcher Art von Antwort Sie in diesem Thread suchen und was Sie noch immer gerne geklärt hätten. Ich bin kein wirklicher Experte für dieses Thema, sondern versuche nur, einen Sinn daraus zu machen.
Amöbe sagt Reinstate Monica
Beide p-Werte ändern sich in die gleiche Richtung, und dies ist PRD. Aber wenn ich stattdessen die zweite Hypothese teste, dass Population 2 mehr Hoden als Eierstöcke hat, sinkt unsere Erwartung für den zweiten p-Wert, wenn der erste p-Wert zunimmt. Dies ist keine PRD.
Jacob Socolar

Antworten:

20

Aus Ihrer Frage und insbesondere Ihren Kommentaren zu anderen Antworten scheint mir, dass Sie hier hauptsächlich verwirrt sind über das "große Ganze": Was bedeutet "positive Abhängigkeit" in diesem Zusammenhang überhaupt - im Gegensatz zu was? ist die technische Bedeutung der PRDS-Bedingung. Also werde ich über das große Ganze sprechen.

Das große Bild

Stellen Sie sich vor, Sie testen Nullhypothesen und stellen sich vor, dass alle von ihnen wahr sind. Jeder der -Werte ist eine Zufallsvariable; Wiederholtes Experimentieren würde jedes Mal einen anderen Wert ergeben , so dass man von einer Verteilung der Werte (unter der Null) sprechen kann . Es ist bekannt, dass für jeden Test eine Verteilung von Werten unter der Null gleich sein muss; Im Falle des Multiplettests sind daher alle Grenzverteilungen der Werte gleichmäßig.N p p p p N pNN ppppNp

Wenn alle Daten und alle Tests unabhängig voneinander sind, ist auch die gemeinsame dimensionale Verteilung der Werte gleichmäßig. Dies wird z. B. in einer klassischen "Gummibärchen" -Situation der Fall sein, wenn eine Reihe unabhängiger Dinge getestet werden:N pNNp

grüne Gummibärchen

Das muss aber nicht so sein. Jedes Paar von Werten kann im Prinzip entweder positiv oder negativ korreliert oder auf kompliziertere Weise abhängig sein. Erwägen Sie, alle paarweisen Mittelwertunterschiede zwischen vier Gruppen zu testen. das sind Tests. Jeder der sechs Werte ist gleichmäßig verteilt. Aber sie sind alle positiv korreliert: Wenn (bei einem gegebenen Versuch) Gruppe A zufällig einen besonders niedrigen Mittelwert hat, könnte ein Vergleich von A zu B einen niedrigen Wert ergeben (dies wäre ein falsch positiver Wert). In dieser Situation ist es jedoch wahrscheinlich, dass A-gegen-C sowie A-gegen-D ebenfalls niedrige Werte ergeben. Also derN = 4 3 / 2 = 6 p p p ppN=43/2=6pppp-Werte sind offensichtlich nicht unabhängig und außerdem positiv miteinander korreliert.

Dies ist informell, worauf sich "positive Abhängigkeit" bezieht.

Dies scheint eine häufige Situation bei mehreren Tests zu sein. Ein weiteres Beispiel wäre das Testen auf Unterschiede in mehreren Variablen, die miteinander korreliert sind. Das Erreichen eines signifikanten Unterschieds bei einem von ihnen erhöht die Wahrscheinlichkeit, einen signifikanten Unterschied bei einem anderen zu erzielen.

Es ist schwierig, ein natürliches Beispiel zu finden, bei dem Werte "negativ abhängig" wären. @ user43849 bemerkte in den obigen Kommentaren, dass es für einseitige Tests einfach ist:p

Stellen Sie sich vor, ich prüfe, ob A = 0 und B = 0 für einseitige Alternativen (A> 0 und B> 0). Stellen Sie sich weiter vor, dass B von A abhängt. Stellen Sie sich zum Beispiel vor, ich möchte wissen, ob eine Population mehr Frauen als Männer enthält und ob die Population mehr Eierstöcke als Hoden enthält. Wenn wir den p-Wert der ersten Frage genau kennen, ändert sich unsere Erwartung des p-Werts für die zweite. Beide p-Werte ändern sich in die gleiche Richtung, und dies ist PRD. Aber wenn ich stattdessen die zweite Hypothese teste, dass Population 2 mehr Hoden als Eierstöcke hat, sinkt unsere Erwartung für den zweiten p-Wert, wenn der erste p-Wert zunimmt. Dies ist keine PRD.

Aber ich konnte bisher kein natürliches Beispiel mit Punkt-Nullen finden.


Nun ist die genaue mathematische Formulierung der "positiven Abhängigkeit", die die Gültigkeit des Benjamini-Hochberg-Verfahrens garantiert, ziemlich schwierig. Wie in anderen Antworten erwähnt, ist die Hauptreferenz Benjamini & Yekutieli 2001 ; sie zeigen, dass die PRDS-Eigenschaft ("positive Regressionsabhängigkeit von jeder aus einer Teilmenge") das Benjamini-Hochberg-Verfahren umfasst. Es ist eine entspannte Form der PRD-Eigenschaft ("Positive Regression Dependency"), was bedeutet, dass PRD PRDS impliziert und daher auch das Benjamini-Hochberg-Verfahren umfasst.

Die Definitionen von PRD / PRDS finden Sie in der Antwort (+1) von @ user43849 und in der Arbeit von Benjamini & Yekutieli. Die Definitionen sind eher technisch und ich verstehe sie nicht gut. Tatsächlich erwähnt B & Y auch mehrere andere verwandte Konzepte: multivariate Gesamtpositivität der zweiten Ordnung (MTP2) und positive Assoziation. Laut B & Y hängen sie wie folgt zusammen (das Diagramm ist meins):

PRD, PRDS, MTP2 und PA

MTP2 impliziert PRD, dh PRDS, das die Richtigkeit des BH-Verfahrens garantiert. PRD bedeutet auch PA, aber PA PRDS.

Amöbe sagt Reinstate Monica
quelle
Wäre ein Beispiel für eine negative Abhängigkeit ein paarweiser Post-Hoc- Test, der beispielsweise einer Einweg-ANOVA von drei Gruppen folgt, wobei , aber , während und , also während wird mit geringerer Wahrscheinlichkeit abgelehnt (da unter ), aber aufgrund der Abhängigkeit ist eher wahrscheinlich ablehnen? μA<μB<μCx¯B<μBx¯AμAx¯CμCpA vs. BH0 |x¯Ax¯B|<|x¯Bx¯C|pB vs. C
Alexis
1
@Alexis Ich habe selbst darüber nachgedacht, aber ich glaube nicht, dass dies funktioniert, weil wir uns überlegen müssen, was unter dem Nullpunkt passiert . In diesem Fall ist die Null , und Ihre Argumentation bricht zusammen. μA=μB=μC
Amöbe sagt Reinstate Monica
Wenn es schwierig ist, sich negative Abhängigkeitssituationen vorzustellen, gilt das Benjamini-Hochberg-Verfahren für Situationen wie post-hoc- paarweise Tests nach Ablehnung einer Omnibus-Nullhypothese für unabhängige Gruppen (z. B. eine nicht blockierte ANOVA, Cochrans Q, Kruskal- Wallis usw.)?
Alexis
@Alexis Ich glaube das ist richtig, ja. Ich versuche immer noch, ein natürliches Beispiel mit negativer Abhängigkeit zu finden ...
Amöbe sagt Reinstate Monica
ROCK! Du gehst, Mädchen! :) (Für geschlechtsfreie Bedeutungen des Wortes "Mädchen";).
Alexis
18

Gute Frage! Lassen Sie uns einen Schritt zurücktreten und verstehen, was Bonferroni getan hat und warum Benjamini und Hochberg eine Alternative entwickeln mussten.

In den letzten Jahren ist es notwendig und obligatorisch geworden, ein Verfahren durchzuführen, das als Mehrfachtestkorrektur bezeichnet wird. Dies ist auf die zunehmende Anzahl von Tests zurückzuführen, die gleichzeitig mit Hochdurchsatz-Wissenschaften durchgeführt werden, insbesondere im Bereich der Genetik mit dem Aufkommen von Assoziationsstudien für das gesamte Genom (GWAS). Entschuldigen Sie meinen Hinweis auf die Genetik, da dies mein Arbeitsgebiet ist. Wenn wir 1.000.000 Tests gleichzeitig bei , würden wir falsch-positive Ergebnisse erwarten . Das ist lächerlich groß, und deshalb müssen wir das Niveau kontrollieren, auf dem die Signifikanz bewertet wird. Die bonferroni-Korrektur, dh die Division der Akzeptanzschwelle (0,05) durch die Anzahl unabhängiger Tests korrigiert die familienweise Fehlerrate ( ).50 , 000 ( 0,05 / M ) F W E RP=0.0550,000(0.05/M)FWER

Dies ist wahr, weil die FWER durch die Gleichung mit der testweisen Fehlerrate ( ) in . Das heißt, 100 Prozent minus 1 subtrahieren die testweise Fehlerrate, die sich aus der Anzahl der durchgeführten unabhängigen Tests ergibt. dass ergibt. ist der für M angepasste Akzeptanz-P-Wert, der völlig unabhängig ist Tests.F W E R = 1 - ( 1 - T W E R ) M ( 1 - 0,05 ) 1 / M = 1 - 0,05TWERFWER=1(1TWER)M TWER0,05(10.05)1/M=10.05MTWER0.05M

Das Problem, auf das wir jetzt wie auch Benjamini und Hochberg stoßen, ist, dass nicht alle Tests völlig unabhängig sind. Somit ist die Bonferroni-Korrektur, obwohl robust und flexibel, eine Überkorrektur . Betrachten Sie den Fall in der Genetik, in dem zwei Gene in einem Fall verknüpft sind, der als Verknüpfungsungleichgewicht bezeichnet wird. Das heißt, wenn ein Gen eine Mutation aufweist, ist es wahrscheinlicher, dass ein anderes Gen exprimiert wird. Dies sind offensichtlich keine unabhängigen Tests, obwohl bei der Bonferroni-Korrektur angenommen wird, dass dies der Fall ist . Hier stellen wir fest, dass die Division des P-Werts durch M zu einer künstlich niedrigen Schwelle führt, da angenommen wird, dass unabhängige Tests sich gegenseitig beeinflussen. Daher entsteht ein M, das für unsere reale Situation zu groß ist, wo die Dinge nicht stimmen nicht unabhängig.

Das von Benjamini und Hochberg vorgeschlagene und von Yekutieli (und vielen anderen) erweiterte Verfahren ist liberaler als das von Bonferroni, und tatsächlich wird die Bonferroni-Korrektur derzeit nur in den allermeisten Studien angewendet. Dies liegt daran, dass wir beim FDR eine gewisse gegenseitige Abhängigkeit der Tests und damit ein zu großes und unrealistisches M annehmen und die Ergebnisse loswerden, die uns in Wirklichkeit am Herzen liegen. Daher wäre im Fall von 1000 Tests, die nicht unabhängig sind, das wahre M nicht 1000, sondern aufgrund von Abhängigkeiten etwas kleiner. Wenn wir also 0,05 durch 1000 teilen, ist der Schwellenwert zu streng und vermeidet einige Tests, die von Interesse sein könnten.

Ich bin mir nicht sicher, ob Sie sich für die Mechanismen interessieren, die hinter dem Kontrollieren von Abhängigkeiten stehen, aber wenn ja, habe ich das Yekutieli-Papier als Referenz verlinkt. Ich werde auch ein paar andere Dinge für Ihre Information und Neugier anhängen.

Hoffe, das hat irgendwie geholfen. Wenn ich etwas falsch dargestellt habe, lass es mich bitte wissen.

~ ~ ~

Verweise

Yekutieli-Artikel zu positiven Abhängigkeiten - http://www.math.tau.ac.il/~ybenja/MyPapers/benjamini_yekutieli_ANNSTAT2001.pdf

(Siehe 1.3 - Das Problem.)

Erklärung von Bonferroni und anderen interessanten Dingen - Nature Genetics Bewertungen. Statistische Leistungs- und Signifikanztests in groß angelegten genetischen Studien - Pak C Sham und Shaun M Purcell

(siehe Kasten 3.)

http://en.wikipedia.org/wiki/Familywise_error_rate

BEARBEITEN:

In meiner vorherigen Antwort habe ich die positive Abhängigkeit nicht direkt definiert, was gefragt wurde. Im Yekutieli-Artikel 2.2heißt der Abschnitt Positive Abhängigkeit, und ich schlage dies vor, da es sehr detailliert ist. Ich glaube jedoch, dass wir es ein bisschen prägnanter machen können.

Das Papier spricht zunächst von positiver Abhängigkeit und verwendet sie als vagen Begriff, der interpretierbar, aber nicht spezifisch ist. Wenn Sie die Beweise lesen, wird das, was als positive Abhängigkeit bezeichnet wird, PRSD genannt, was früher als "Positive Regressionsabhängigkeit von jedem aus einer Teilmenge " definiert wurde. ist die Teilmenge von Tests, die die Nullhypothese (0) korrekt unterstützen. PRDS ist dann wie folgt definiert.I 0I0I0

PRDS

XI0XI0XI0xX

P

Zusammenfassend ist die Eigenschaft der positiven Abhängigkeit die Eigenschaft der positiven Regressionsabhängigkeit unseres gesamten Satzes von Teststatistiken von unserem Satz von echten Nullteststatistiken, und wir steuern für einen FDR von 0,05; Wenn also P-Werte von unten nach oben gehen (die Aufwärtsprozedur), steigt die Wahrscheinlichkeit, dass sie Teil der Nullmenge sind.

Meine frühere Antwort in den Kommentaren zur Kovarianzmatrix war nicht falsch, nur ein bisschen vage. Ich hoffe das hilft ein bisschen mehr.

Chris C
quelle
6
Vielen Dank. Sie bieten einen klaren Überblick über die Kontrolle der familienbezogenen Fehlerraten (Bonferroni usw.) im Vergleich zur Kontrolle des FDR, aber ich verstehe immer noch nicht, was "positive Abhängigkeit" bedeutet. Bedenken Sie, dass ich 1000 P-Werte habe und die Expression von 1000 verschiedenen Genen teste, um Menschen mit und ohne Krankheit zu vergleichen. Ich benutze die BH-Methode, um zu entscheiden, welche dieser Vergleiche "Entdeckungen" sind. Was bedeutet "positive Abhängigkeit" in diesem Zusammenhang?
Harvey Motulsky
9
Ein kleiner, aber wichtiger Hinweis: Bonferroni macht absolut keine Angaben zur Unabhängigkeit. In der Tat wird es in dem sich gegenseitig ausschließenden Fall, der in gewisser Weise alles andere als unabhängig ist, richtig abdecken. Es gibt ein Korrekturverfahren (Sidak), das Unabhängigkeit voraussetzt und FWER unter dieser Annahme stärker kontrolliert. Einige andere Aspekte dieser Antwort könnten ebenfalls eine leichte Auffrischung gebrauchen.
Kardinal
2
@ ChrisC Ich verstehe immer noch nicht. "Kovarianzmatrix zwischen Elementen"? Ich beginne mit einer Liste von P-Werten und möchte entscheiden, welche niedrig genug sind, um als "Entdeckungen" bezeichnet zu werden, die es wert sind, weiterverfolgt zu werden (mit gesteuertem FDR). Was sind die Elemente der Kovarianzmatrix? Angenommen, jeder P-Wert vergleicht die Expression eines bestimmten Gens zwischen Gruppen, und es gibt viele solcher Gene. Für jedes Gen vergleicht der Test die Gruppen, die zu einem P-Wert führen. Was bedeutet es in dieser Situation für "Elemente, die zusammen variieren" oder "positive Korrelationen untereinander"?
Harvey Motulsky
2
@ ChrisC Danke. Es ist klarer geworden, aber ich verstehe immer noch nicht wirklich, was diese Annahme bedeutet. Der springende Punkt bei der Kenntnis der Annahme, die hinter der Methode steht, ist zu wissen, wann es wahrscheinlich ist, dass Sie dagegen verstoßen. Daher wäre es hilfreich, einige Szenarien aufzulisten, in denen die Annahme nicht zutrifft. Wann wäre ein niedrigerer P-Wert nicht mit einer höheren Wahrscheinlichkeit verbunden, dass die Nullhypothese falsch ist?
Harvey Motulsky
1
Dies beantwortet die Frage nicht.
Alexis
10

Ich fand diesen Vordruck hilfreich, um die Bedeutung zu verstehen. Es sollte gesagt werden, dass ich diese Antwort nicht als Experte für das Thema anbiete, sondern als Versuch zu verstehen, von der Community überprüft und validiert zu werden.

Vielen Dank an Amoeba für sehr hilfreiche Beobachtungen zum Unterschied zwischen PRD und PRDS, siehe Kommentare

pCpC

  1. qC
  2. rqrqri<qii
  3. rC

C

pp1...pn<B1...BnpCB1...Bn

pipipip1...pnp1...pnpi

p1...pn

pnpn<BBpn<Bpn<BB

Bearbeitet, um hinzuzufügen:

Hier ist ein mutmaßliches Beispiel für ein System, das nicht PRDS ist (R-Code unten). Die Logik ist, dass wenn die Proben a und b sehr ähnlich sind, es wahrscheinlicher ist, dass ihr Produkt atypisch ist. Ich vermute, dass dieser Effekt (und nicht die Ungleichmäßigkeit der p-Werte unter der Null für den (a*b), (c*d)Vergleich) die negative Korrelation in den p-Werten verursacht, aber ich kann nicht sicher sein. Der gleiche Effekt tritt auf, wenn wir einen t-Test für den zweiten Vergleich durchführen (anstelle eines Wilcoxon), aber die Verteilung der p-Werte ist immer noch nicht einheitlich, vermutlich aufgrund von Verstößen gegen die Normalitätsannahme.

ab <- rep(NA, 100000)  # We'll repeat the comparison many times to assess the relationships among p-values.
abcd <- rep(NA, 100000)

for(i in 1:100000){
  a <- rnorm(10)    # Draw 4 samples from identical populations.
  b <- rnorm(10)
  c <- rnorm(10)
  d <- rnorm(10)

  ab[i] <- t.test(a,b)$p.value          # We perform 2 comparisons and extract p-values
  abcd[i] <- wilcox.test((a*b),(c*d))$p.value
}

summary(lm(abcd ~ ab))    # The p-values are negatively correlated

ks.test(ab, punif)    # The p-values are uniform for the first test
ks.test(abcd, punif)   # but non-uniform for the second test.
hist(abcd)
Jacob Socolar
quelle
Es tut mir leid, aber ich folge dem nicht wirklich.
Harvey Motulsky
Klärt der neue letzte Absatz alles auf?
Jacob Socolar
@Amoeba, ja, ich denke du hast recht. Die von früheren Postern verlinkten Yekutieli-Papiere sind Behandlungen von PRDS. Soweit ich das beurteilen kann, ist PRD dieselbe Eigenschaft, jedoch für alle Teststatistiken (oder p-Werte), nicht nur für die Teilmenge, die echten Nullen entspricht.
Jacob Socolar
1
Ja, du hast absolut recht. Bearbeiten Sie jetzt.
Jacob Socolar
1
Interessantes Beispiel, aber der Effekt ist super-schwach: Ich erhalte einen Korrelationskoeffizienten (zwischen ab und abcd) von ungefähr -0,03 ... Aber ich verstehe nicht: Warum sagst du das "wenn die Proben a und b sehr ähnlich sind ist es wahrscheinlicher, dass ihr Produkt atypisch sein wird "?
Amöbe sagt Reinstate Monica
4

Benjamini und Yekutieli geben in ihrer Arbeit einige Beispiele dafür, wie positiv die Regressionsabhängigkeit (PRD) anders ist, als nur positiv assoziiert zu werden. Die FDR-Steuerprozedur beruht auf einer schwächeren Form von PRD, die sie PRDS nennen (dh PRD für jede einzelne aus einer Teilmenge von Variablen).

Positive Abhängigkeit wurde ursprünglich von Lehmann in der bivariaten Einstellung vorgeschlagen , aber die multivariate Version dieses Konzepts, die als positive Regressionsabhängigkeit bezeichnet wird, ist für mehrere Tests relevant.

Hier ist ein relevanter Auszug aus S. 6

X(X1,X2)Xh(X1)X2h(X1)

user3303
quelle
2

Positive Abhängigkeit bedeutet in diesem Fall, dass die Testsätze positiv korreliert sind. Die Idee ist dann, dass, wenn die Variablen in der Gruppe von Tests, für die Sie P-Werte haben, positiv korreliert sind, jede der Variablen nicht unabhängig ist .

Wenn Sie zum Beispiel an eine Bonferroni-p-Wert-Korrektur zurückdenken, können Sie sicherstellen, dass die Typ-1-Fehlerrate weniger als 10% über beispielsweise 100 statistisch unabhängigen Tests liegt, indem Sie die Signifikanzschwelle auf 0,1 / 100 = 0,001 setzen. Aber was ist, wenn jeder dieser 100 Tests in irgendeiner Weise korreliert? Dann haben Sie nicht wirklich 100 separate Tests durchgeführt.

In FDR unterscheidet sich die Idee geringfügig von der Bonferroni-Korrektur. Damit soll sichergestellt werden, dass nur ein bestimmter Prozentsatz (z. B. 10%) der von Ihnen als signifikant deklarierten Dinge fälschlicherweise als signifikant deklariert wird. Wenn Sie in Ihrem Datensatz korrelierte Marker (positive Abhängigkeit) haben, wird der FDR-Wert basierend auf der Gesamtzahl der von Ihnen durchgeführten Tests ausgewählt (die tatsächliche Anzahl der statistisch unabhängigen Tests ist jedoch geringer). Auf diese Weise ist es sicherer zu schließen, dass die Rate falscher Entdeckungen fälschlicherweise signifikante 10% oder weniger der Tests in Ihrem Satz von P-Werten angibt.

In diesem Buchkapitel finden Sie Informationen zur positiven Abhängigkeit.

derrek
quelle
2
Sie erklären FDR gegen Bonferroni, definieren aber nicht "positive Abhängigkeit", sondern formulieren es einfach in "positiv korreliert" um, aber ich verstehe nicht. Bedenken Sie, dass ich 1000 P-Werte habe und die Expression von 1000 verschiedenen Genen teste, um Menschen mit und ohne Krankheit zu vergleichen. Ich benutze die BH-Methode, um zu entscheiden, welche dieser Vergleiche "Entdeckungen" sind. Was bedeutet "positive Abhängigkeit" in diesem Zusammenhang?
Harvey Motulsky
5
Diese Antwort ist absolut falsch. Positive Regression Abhängigkeit und positive Assoziation unterscheiden sich voneinander. Der Artikel von Benjamini Yekutieli erklärt dies und gibt auch Hinweise. Dennoch implizieren PRDS und positive Assoziation einander nicht, und der Unterschied ist von einiger Bedeutung. Beispielsweise wird eine multivariate Normalverteilung positiv assoziiert, wenn alle Korrelationen nicht negativ sind. Nicht alle Korrelationen müssen nicht negativ sein, damit die PRDS-Eigenschaft gilt ( siehe Abschnitt 3.1, Fall 1 unten). " Siehe Seite 6 des Papiers.
user3303