Ich habe über die Intuition hinter der KL-Divergenz gelernt, wie sehr sich eine Modellverteilungsfunktion von der theoretischen / wahren Verteilung der Daten unterscheidet. Die Quelle, die ich lese, sagt weiter, dass das intuitive Verständnis der Distanz zwischen diesen beiden Verteilungen hilfreich ist, aber nicht wörtlich genommen werden sollte, da für …
Ich bin mir sicher, dass ich das komplett um meinen Kopf gewickelt habe, aber ich kann es einfach nicht herausfinden. Der t-Test vergleicht zwei Normalverteilungen mit der Z-Verteilung. Aus diesem Grund wird bei den DATEN von Normalität ausgegangen. ANOVA entspricht einer linearen Regression mit Dummy-Variablen und verwendet wie OLS Quadratsummen. …
Ich frage mich, ob es einen Unterschied in der Interpretation macht, ob nur die abhängigen, sowohl die abhängigen als auch die unabhängigen Variablen oder nur die unabhängigen Variablen log-transformiert werden. Betrachten Sie den Fall von log(DV) = Intercept + B1*IV + Error Ich kann die IV als prozentuale Erhöhung interpretieren, …
Es gibt viele Möglichkeiten zu messen, wie ähnlich zwei Wahrscheinlichkeitsverteilungen sind. Zu den (in verschiedenen Kreisen) populären Methoden gehören: der Kolmogorov-Abstand: der Überabstand zwischen den Verteilungsfunktionen; die Kantorovich-Rubinstein-Distanz: die maximale Differenz zwischen den Erwartungen bezüglich der beiden Funktionsverteilungen mit der Lipschitz-Konstante , die sich auch als die Distanz zwischen den …
Ich habe einen Datensatz mit folgender Struktur: a word | number of occurrence of a word in a document | a document id Wie kann ich einen Test für die Normalverteilung in R durchführen? Wahrscheinlich ist es eine einfache Frage, aber ich bin ein R-Neuling.
Ich suche nach einer Möglichkeit, Zufallszahlen zu generieren , die gleichmäßig verteilt zu sein scheinen - und jeder Test zeigt, dass sie einheitlich sind - mit der Ausnahme, dass sie gleichmäßiger verteilt sind als echte einheitliche Daten . Das Problem, das ich mit den "wahren" einheitlichen Zufällen habe, ist, dass …
(Dies basiert auf einer Frage, die ich gerade per E-Mail erhalten habe. Ich habe einen Kontext aus einem vorherigen kurzen Gespräch mit derselben Person hinzugefügt.) Letztes Jahr wurde mir gesagt, dass die Gammaverteilung schwerer ist als die logarithmische Verteilung, und seitdem wurde mir mitgeteilt, dass dies nicht der Fall ist. …
Ich kenne Normalitätstests, aber wie prüfe ich auf "Poisson-Ness"? Ich habe eine Stichprobe von ~ 1000 nicht-negativen ganzen Zahlen, von denen ich vermute, dass sie aus einer Poisson-Verteilung stammen, und ich würde das gerne testen.
Für eine unimodale Verteilung, die mäßig verzerrt ist, haben wir die folgende empirische Beziehung zwischen Mittelwert, Median und Modus: Wie war diese Beziehung? abgeleitet?(Mean - Mode)∼3(Mean - Median)(Mean - Mode)∼3(Mean - Median) \text{(Mean - Mode)}\sim 3\,\text{(Mean - Median)} Hat Karl Pearson Tausende dieser Beziehungen geplant, bevor er diese Schlussfolgerung gezogen …
Gibt es bekannte Formeln für die Ordnungsstatistik bestimmter Zufallsverteilungen? Insbesondere die Statistik erster und letzter Ordnung einer normalen Zufallsvariablen, aber auch eine allgemeinere Antwort wären wünschenswert. Bearbeiten: Um dies zu verdeutlichen, suche ich nach Näherungsformeln, die mehr oder weniger explizit ausgewertet werden können, nicht nach dem exakten ganzzahligen Ausdruck. Zum …
Ich modelliere eine Zufallsvariable ( ), die die Summe einiger ~ 15-40k unabhängiger Bernoulli-Zufallsvariablen ( ) mit jeweils unterschiedlicher Erfolgswahrscheinlichkeit ( ) ist. Formal ist wobei und \ Pr (X_i = 0) = 1-p_i .YYYXiXiX_ipipip_iY=∑XiY=∑XiY=\sum X_iPr(Xi=1)=piPr(Xi=1)=pi\Pr(X_i=1)=p_iPr(Xi=0)=1−piPr(Xi=0)=1−pi\Pr(X_i=0)=1-p_i Ich bin daran interessiert, Anfragen wie Pr(Y<=k)Pr(Y<=k)\Pr(Y<=k) (wobei kkk angegeben ist) schnell zu beantworten …
Wie funktioniert die Sattelpunktnäherung? Für was für ein Problem ist es gut? (Fühlen Sie sich frei, ein bestimmtes Beispiel oder Beispiele zur Veranschaulichung zu verwenden) Gibt es Nachteile, Schwierigkeiten, Dinge, auf die man achten muss, oder Fallen für die Unachtsamen?
Ich kann feststellen, dass es viele formale Unterschiede zwischen den Abstandsmaßen Kullback-Leibler und Kolmogorov-Smirnov gibt. Beide werden jedoch verwendet, um den Abstand zwischen Verteilungen zu messen. Gibt es eine typische Situation, in der einer anstelle des anderen verwendet werden sollte? Was ist der Grund dafür?
Ich habe versucht, meine Daten in verschiedene Modelle einzufügen, und dabei herausgefunden, dass die fitdistrFunktion aus der Bibliothek MASSvon Rmir Negative Binomialdie beste Anpassung ergibt . Auf der Wiki- Seite lautet die Definition nun: Die NegBin (r, p) -Verteilung beschreibt die Wahrscheinlichkeit von k Fehlern und r Erfolgen in k …
Ich lerne die Überlebensanalyse aus diesem Beitrag über UCLA IDRE und bin in Abschnitt 1.2.1 aufgefallen . Das Tutorial sagt: ... wenn bekannt ist, dass die Überlebenszeiten exponentiell verteilt sind , dann die Wahrscheinlichkeit, eine Überlebenszeit zu beobachten ... Warum wird angenommen, dass die Überlebenszeiten exponentiell verteilt sind? Es erscheint …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.