Angenommen, ich habe Daten einer bestimmten Menge , gegeben durch . Jetzt nehme ich die erste Ziffer jeder Größe und möchte die Beziehung zwischen der empirischen Verteilung der ersten Ziffern wobei die normalisierte Häufigkeit des Auftretens von als erste Ziffer und das Benfordsche Gesetz Nun habe ich dieses Papier gelesen
Ich denke, diese Methoden können auf folgende Weise auf den Echtzeitvergleich mit dem Benford-Gesetz angewendet werden: Bei einem (kleinen) Zeitintervall (z. B. 3 Sekunden) berechnen wir die empirischen Häufigkeiten der ersten Ziffern und dann berechnen wir die gleichzeitigen Konfidenzintervalle und Werte der Statistiken, die in der zuvor erwähnten Referenz gezeigt werden (wir müssen sicherstellen, dass wir eine Stichprobengröße haben so von mindestens 60 Daten, dass die Verteilung der Statistiken sollte relativ nahe an die asymptotischen Verteilungen sein, so dass die berechneten -Werte sollte zuverlässig sein).
Meine Frage ist, ist dies ein gültiges Verfahren? Macht das Sinn? Wenn nicht, gibt es eine fundierte Methode, um die empirische Verteilung der ersten Ziffer mit dem Benford-Gesetz in Echtzeit zu vergleichen?
Ein potenzielles Problem, das ich sehe, ist, dass sich die zugrunde liegende Verteilung der ersten Ziffern in einem bestimmten Zeitfenster ändern kann (möglicherweise sogar mehr als einmal). Aus diesem Grund halte ich es für eine gute Idee, relativ kleine Zeitfenster zu verwenden, um eine anständige Stichprobengröße zu erzielen und gleichzeitig die Wahrscheinlichkeit zu verringern, dass sich die zugrunde liegende Verteilung der ersten Ziffern ändert.