Lassen Sie uns und eine ganze Zahl t > 0 festlegen .
für jedes und für jeden Vektor ˉ c ∈ [ 0 , 1 ] n, so dass ∑ i ∈ [ n ] c i ≥ E × n ist
Ich weiß nicht, ob die Aussage wahr oder falsch ist. Ich glaube es ist wahr.
Meine Intuition ergibt sich aus der Beobachtung, dass für die Vektoren (mit der gewünschten Eigenschaft über die Summe) A ˉ c = ( E × n) gilt ; In diesem Fall können wir nur eine Teilmenge aus der Menge{i|auswählen ci=1}.
In den anderen Fällen können wir mit der Koordinate in { i | eine gute Teilmenge erstellen (st die Summe ist größer als ) c i > E }, aber vielleicht auch mit wenigen Koordinaten aus der Menge { i | c i ≤ E } wir könnten andere gute Mengen erstellen!
Also, beweise es oder finde den Fehler! Ich hoffe, dass es ein lustiges Spiel für dich sein könnte!
Motivation der Frage :
Angenommen, Sie haben eine Zufallsvariable , ein typisches Maß dafür, "wie viel Zufälligkeit" in X vorhanden ist, ist die Min-Entropie
In einem intuitiven Sinne ist die Min-Entropie der schlimmste Fall der berühmten Shannon-Entropie (das ist der Durchschnittsfall ).
Wir sind daran interessiert, die Min-Entropie der Zufallsvariablen zu senken, wobei Y gleichmäßig über die Menge { y | verteilt ist ∑ i y i = t } .
Wenn wir Glück haben, können wir locker die Bits von fangen , die "gute Entropie" haben, und wenn H ∞ ( X ) ≥ E n, dann ist H ∞ ( Z | Y ) ≥ E t
Wie groß ist die Wahrscheinlichkeit, dass wir Glück haben?
Das Problem ist gut untersucht und es gibt viel Literatur, siehe zum Beispiel Lemma A.3. in der leckagebeständigen Public-Key-Kryptographie im Bounded-Retrieval-Modell
quelle
Antworten:
Die Vermutung in der Post gilt nicht, aber die schwächere Vermutung (in Bezug auf den Boden), die in den Kommentaren erwähnt wird, gilt. In der Tat hält etwas Stärkeres.
Lemma 1. Die Vermutung in der Post gilt nicht. Das heißt, es gibt eine Instanz, die die gegebenen Annahmen erfüllt, wobei
Lemma 2.0<E<1 n,t>0 c∈[0,1]n ∑i∈[n]ci≥En
∣∣{S⊆[n]:∑i∈S ci≥Et}∣∣>(⌊En⌋t)+(⌊En⌋t+1)+⋯+(⌊En⌋⌊En⌋).
quelle