Ich habe ein algebraisches Problem im Zusammenhang mit Vektoren im Feld GF (2). Sei (0,1) -Vektoren der Dimension und . Finden Sie einen polynomialen Zeitalgorithmus, der einen (0,1) -Vektor mit der gleichen Dimension findet, sodass nicht die Summe aller -Vektoren unter . Die Addition von Vektoren erfolgt über das Feld GF (2), das zwei Elemente 0 und 1 aufweist ( und ).
Es ist leicht, die Existenz eines solchen Vektors u durch ein einfaches Zählargument zu erkennen. Können wir finden in einem Polynom Zeit? Es ist trivial, in exponentieller Zeit zu finden . Ich werde einen 200-Dollar-Scheck für die erste richtige Lösung senden.
ds.algorithms
linear-algebra
Bin Fu
quelle
quelle
Antworten:
Es scheint ein Tippfehler zu sein; Ich nehme an, Sie wollen was nicht die Summe von Vektoren unter (nicht ) ist. ( log n ) O ( 1 ) v 1 , … , v m nu ∈ { 0 , 1}n ( logn )O ( 1 ) v1, … , Vm n
Mir ist nicht klar, ob eine Konstante in für Sie funktioniert. Wenn Sie sich mit Summen von weniger als Vektoren zufrieden geben können, ist vielleicht etwas zu tun. Aber wenn Sie wollen, dass diese Menge , dann denke ich, dass es ziemlich schwierig ist (ich habe lange an diesem Problem gearbeitet). log m ( log m ) 1 + δ( logn )O ( 1 ) Logm ( logm )1 + δ
Es könnte Sie dennoch interessieren, dass dies ein Beispiel für das Fernpunktproblem von Alon, Panigrahy und Yekhanin ("Deterministische Approximationsalgorithmen für das nächste Codewortproblem") für bestimmte Parameter ist. Sei und die Spalten der Paritätsprüfungsmatrix eines linearen Codes in der Dimension (wenn diese Matrix nicht den vollen Rang hatte) wäre das Problem trivial). Dann ist Ihr Problem gleichbedeutend mit dem Finden von , dh aus dem Code. Diese Parametereinstellung, bei der die Abmessung sehr nahe an m liegt, wird in der Arbeit nicht untersucht. Sie können jedoch nur die Fernem > n v1, … , Vm { 0 , 1 }m d= m - n u ∈ { 0 , 1 }n (logn )O ( 1 ) Logm bis zur Dimension für eine Konstante . Ich glaube nicht, dass wir ein polynomgroßes Zertifikat kennen, mit dem wir beweisen können, dass ein Vektor mehr als von einem Raum der Dimension , geschweige denn zu finden ist es.d= c m c ω ( logm ) Ω ( m )
Ein weiterer Zusammenhang besteht mit dem Lernen von Paritäten im fehlergebundenen Modell. Wenn man effizient -Paritäten (definiert auf ) mit einer Fehlergrenze von weniger als lernen kann, kann man beliebige Werte auf das erste Bits von und "einen Fehler erzwingen" auf das letzte Bit, indem es auf den entgegengesetzten Wert gesetzt wird, den der Lernende vorhergesagt hat. Dies scheint jedoch viel stärker zu sein.( logn )O ( 1 ) 0 , 1m n n - 1 u
Das Problem hängt auch mit der Trennung der EXP von bestimmten Reduktionen auf dünn besetzte Mengen zusammen.
quelle