Diese Frage betrifft die Schnittstelle von Wahrscheinlichkeitstheorie und Rechenkomplexität. Eine wichtige Beobachtung ist, dass einige Verteilungen einfacher zu generieren sind als andere. Zum Beispiel das Problem
Geben Sie bei einer gegebenen Zahl eine gleichmäßig verteilte Zahl i mit 0 ≤ i < n zurück .
ist leicht zu lösen. Andererseits ist oder scheint das folgende Problem viel schwieriger zu sein.
Geben Sie bei einer gegebenen Zahl eine Zahl i zurück, so dass i (die Gödel-Zahl von) ein gültiger Beweis für die Länge n in der Peano-Arithmetik ist. Wenn die Anzahl solcher Beweise p r ( n ) ist , sollte die Wahrscheinlichkeit, einen spezifischen Beweis der Länge n zu erhalten, 1 sein .
Dies legt für mich nahe, dass Wahrscheinlichkeitsverteilungen mit einem Begriff der rechnerischen Komplexität einhergehen. Darüber hinaus hängt diese Komplexität wahrscheinlich eng mit den zugrunde liegenden Entscheidungsproblemen zusammen (ob subrekursiv, z. B. , E X P , rekursiv, rekursiv aufzählbar oder schlimmer).
Meine Frage ist: Wie definiert man die rechnerische Komplexität von Wahrscheinlichkeitsverteilungen, insbesondere wenn das zugrunde liegende Entscheidungsproblem nicht entscheidbar ist? Ich bin mir sicher, dass dies bereits untersucht wurde, aber ich bin mir nicht sicher, wo ich suchen soll.
quelle
Antworten:
Die Komplexität von Wahrscheinlichkeitsverteilungen zeigt sich insbesondere bei der Untersuchung von Verteilungsproblemen wie DistNP in Levins Theorie von durchschnittlichen .
Eine Verteilung ist P-berechenbar, wenn ihre kumulative Dichtefunktion in Polynomzeit ausgewertet werden kann.
Eine Verteilung ist P-abtastbar wenn wir sie in Polynomzeit können.
Wenn eine Verteilung P-berechenbar ist, ist sie P-sampierbar. Das Gegenteil ist nicht der Fall, wenn bestimmte Einwegfunktionen vorhanden sind.
Sie können die Definitionen auf andere Komplexitätsklassen erweitern.
Oded Goldreich hat eine nette Einführung zu dem Thema, das Sie vielleicht überprüfen möchten.
quelle