Nahezu jede Quelle oder Person, mit der ich jemals interagiert habe, mit Ausnahme der Wolfram-Quelle, die Sie verlinkt haben, bezieht sich auf den Prozess als Anpassung eines Modells an Daten . Dies ist sinnvoll, da das Modell das dynamische Objekt ist und die Daten statisch (auch als fest und konstant bezeichnet) sind.
Um es auf den Punkt zu bringen, ich mag Larry Wassermans Herangehensweise daran. In seiner Darstellung ist ein statistisches Modell eine Sammlung von Verteilungen. Zum Beispiel die Auflistung aller Normalverteilungen:
{ Normal ( μ , σ) : μ , σ∈ R , σ> 0 }
oder die Menge aller Poisson-Verteilungen:
{ Poisson ( λ ) : λ ≤ R , λ> 0 }
Das Anpassen einer Verteilung an Daten ist ein beliebiger Algorithmus, der ein statistisches Modell mit einer Datenmenge kombiniert (die Daten sind fest) und genau eine der Verteilungen aus dem Modell als diejenige auswählt, die die Daten "am besten" widerspiegelt.
Das Modell ist das, was sich ändert (Art): Wir brechen es aus einer ganzen Sammlung von Möglichkeiten zu einer einzigen besten Wahl zusammen. Die Daten sind nur die Daten; es passiert überhaupt nichts.