Ich habe ein Programm geschrieben, das zufällige Daten erzeugt. Wenn das Programm ordnungsgemäß funktioniert, sollten diese Daten einer bestimmten, bekannten Wahrscheinlichkeitsverteilung folgen. Ich möchte das Programm ausführen, einige Berechnungen für das Ergebnis durchführen und einen p-Wert ausarbeiten.
Bevor es jemand anders sagt: Ich verstehe, dass das Testen von Hypothesen nicht erkennen kann, ob das Programm richtig funktioniert. Es kann nur erkennen, wenn es auf eine bestimmte Art und Weise fehlerhaft funktioniert . (Und selbst dann sollte der Test in X% der Fälle fehlschlagen, je nachdem, welches Signifikanzniveau Sie wählen ...)
Daher versuche ich zu verstehen, welche Tools geeignet sein könnten. Bestimmtes:
Ich kann so viele zufällige Daten generieren, wie ich möchte. Ich muss das Programm nur lange genug laufen lassen. Ich bin also nicht auf eine bestimmte Stichprobengröße beschränkt.
Ich interessiere mich für Techniken, die einen p-Wert erzeugen. Es ist also keine interessante Option, auf ein Diagramm zu starren und zu sagen, "Ja, das sieht irgendwie linear aus". Es sei denn, es gibt eine Möglichkeit, die "Wonkyness" eines Diagramms mit einer harten Zahl zu belegen. ;-)
Was ich bisher weiß:
Ich habe drei Hauptarten von Tests gesehen, die erwähnt wurden, wie sie anwendbar sein könnten: [Pearson] Chi-Quadrat-Test, Kolmogorov-Smirnov-Test und Anderson-Darling-Test.
Es scheint, dass ein Chi-Quadrat-Test für diskrete Verteilungen geeignet ist , während die anderen beiden für kontinuierliche Verteilungen besser geeignet sind . (?)
Verschiedene Quellen weisen darauf hin, dass der AD-Test "besser" ist als der KS-Test, gehen jedoch nicht weiter ins Detail.
Letztendlich erkennen alle diese Tests vermutlich "unterschiedliche Arten", von der angegebenen Nullverteilung abzuweichen. Aber ich weiß noch nicht genau, was die Unterschiede sind ... Zusammenfassend suche ich nach einer allgemeinen Beschreibung, wo die einzelnen Testtypen am besten anwendbar sind und welche Arten von Problemen am besten erkannt werden.