Es scheint ein Tippfehler zu sein; Ich nehme an, Sie wollen was nicht die Summe von Vektoren unter (nicht ) ist. ( log n ) O ( 1 ) v 1 , … , v m nu ∈ { 0 , 1}n( logn )O ( 1 )v1, … , Vmn
Mir ist nicht klar, ob eine Konstante in für Sie funktioniert. Wenn Sie sich mit Summen von weniger als Vektoren zufrieden geben können, ist vielleicht etwas zu tun. Aber wenn Sie wollen, dass diese Menge , dann denke ich, dass es ziemlich schwierig ist (ich habe lange an diesem Problem gearbeitet). log m ( log m ) 1 + δ( logn )O ( 1 )Logm( logm )1 + δ
Es könnte Sie dennoch interessieren, dass dies ein Beispiel für das Fernpunktproblem von Alon, Panigrahy und Yekhanin ("Deterministische Approximationsalgorithmen für das nächste Codewortproblem") für bestimmte Parameter ist. Sei und die Spalten der Paritätsprüfungsmatrix eines linearen Codes in der Dimension (wenn diese Matrix nicht den vollen Rang hatte) wäre das Problem trivial). Dann ist Ihr Problem gleichbedeutend mit dem Finden von , dh aus dem Code. Diese Parametereinstellung, bei der die Abmessung sehr nahe an m liegt, wird in der Arbeit nicht untersucht. Sie können jedoch nur die Fernem > nv1, … , Vm{ 0 , 1 }md= m - nu ∈ { 0 , 1 }n(logn )O ( 1 )Logmbis zur Dimension für eine Konstante . Ich glaube nicht, dass wir ein polynomgroßes Zertifikat kennen, mit dem wir beweisen können, dass ein Vektor mehr als von einem Raum der Dimension , geschweige denn zu finden ist es.d= c mcω ( logm )Ω ( m )
Ein weiterer Zusammenhang besteht mit dem Lernen von Paritäten im fehlergebundenen Modell. Wenn man effizient -Paritäten (definiert auf ) mit einer Fehlergrenze von weniger als lernen kann, kann man beliebige Werte auf das erste Bits von und "einen Fehler erzwingen" auf das letzte Bit, indem es auf den entgegengesetzten Wert gesetzt wird, den der Lernende vorhergesagt hat. Dies scheint jedoch viel stärker zu sein.( logn )O ( 1 )0 , 1mnn - 1u
Das Problem hängt auch mit der Trennung der EXP von bestimmten Reduktionen auf dünn besetzte Mengen zusammen.