Sei eine endliche Menge und nehmen wir an, wir wollen die Größe einer Teilmenge X berechnen .
Motivation : Wenn wir Elemente von A gleichmäßig zufällig erzeugen können , können wir die Größe von A durch Zufallsstichprobe schätzen . Das heißt, wir nehmen n Zufallsstichproben von A , wenn m von ihnen zu X gehören , dann | X | / | A | ≈ m / n . Leider für das, was ich mache, normalerweise | A | ist massiv und | X | (während massiv) ist in Bezug auf | ziemlich klein A |. Wenn ich also versuche, die obige Schätzung durchzuführen, erhalte ich wahrscheinlich , was zwar nicht nutzlos, aber nicht wirklich befriedigend ist.
Ich habe also die Idee, dass ich hoffe, diesen Prozess zu beschleunigen. Warum werfe ich keine Bälle, anstatt Darts auf eine massive Dartscheibe zu werfen? Das heißt, anstatt Elemente abzutasten , werden Teilmengen von A abgetastet . Sicherlich sollte ich aus diesem Experiment etwas über die Dichte von X in A ableiten können.
Angenommen, ist mit einer Metrik d ( x , y ) ausgestattet (ich denke an den Hamming-Abstand). Für jedes y ∈ A sei Y ( y ) = { x ∈ A : d ( x , y ) ≤ k } die geschlossene Kugel mit dem Radius k in A, zentriert bei t . Da wir Elemente x ∈ A gleichmäßig zufällig abtasten können, können wir k- Kugeln Y abtasten gleichmäßig zufällig.
Angenommen, (a) jedes gehört zu genau der gleichen Anzahl von k- Bällen und (b) jeder k- Ball hat die gleiche Größe r .
Nehmen wir nun an, ich generiere Bälle Y 1 , Y 2 , … , Y n gleichmäßig zufällig und nehme an, m = ∑ n i = 1 | Y i ∩ X | . Es scheint, wir können | schätzen A | in ähnlicher Weise ist das | X | / | A | ≈ m .
Meine Fragen sind also:
Stimmt es, dass wir uns annähern können diesen Weg? Wenn ja, bezweifle ich, dass ich der Erste bin, der daran denkt. Gibt es also einen Namen für diese Methode?
Ich habe dies tatsächlich an einigen Sets getestet und es scheint mit dem übereinzustimmen, was ich behaupte.
Gibt es irgendwelche Nachteile bei diesem Ansatz? (zB ist es weniger genau? Brauche ich mehr Proben?)