Die Formel zur Berechnung der Varianz hat im Nenner :(n−1)(n−1)(n-1) s2=∑Ni=1(xi−x¯)2n−1s2=∑i=1N(xi−x¯)2n−1s^2 = \frac{\sum_{i=1}^N (x_i - \bar{x})^2}{n-1} Ich habe mich immer gefragt, warum. Das Lesen und Anschauen einiger guter Videos über das "Warum" von scheint jedoch ein guter unverzerrter Schätzer der Populationsvarianz zu sein. Während die Populationsvarianz unterschätzt und überschätzt.n ( …
Ich habe Probleme, die KL-Divergenzformel unter der Annahme von zwei multivariaten Normalverteilungen abzuleiten. Ich habe den univariaten Fall ziemlich leicht gemacht. Es ist jedoch eine Weile her, dass ich Mathe-Statistiken erstellt habe, und daher habe ich einige Probleme, diese auf den multivariaten Fall auszudehnen. Ich bin mir sicher, ich vermisse …
Wie die Frage besagt - ist es möglich, die Nullhypothese zu beweisen? Nach meinem (eingeschränkten) Verständnis der Hypothese lautet die Antwort nein, aber ich kann keine strenge Erklärung dafür finden. Hat die Frage eine endgültige Antwort?
Ich verwende Caret, um eine kreuzvalidierte zufällige Gesamtstruktur über ein Dataset auszuführen. Die Y-Variable ist ein Faktor. In meinem Datensatz befinden sich keine NaNs, Infs oder NAs. Allerdings bekomme ich, wenn ich den zufälligen Wald laufen lasse Error in randomForest.default(m, y, ...) : NA/NaN/Inf in foreign function call (arg 1) …
Ich habe ein Problem mit dem Beweis von E(Y|X)∈argming(X)E[(Y−g(X))2]E(Y|X)∈argming(X)E[(Y−g(X))2]E(Y|X) \in \arg \min_{g(X)} E\Big[\big(Y - g(X)\big)^2\Big] die sehr wahrscheinlich ein tieferes Missverständnis der Erwartungen und bedingten Erwartungen aufdecken. Der mir bekannte Beweis lautet wie folgt (eine andere Version dieses Beweises finden Sie hier ) ===argming(X)E[(Y−g(x))2]argming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]argming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]argming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]argming(X)E[(Y−g(x))2]=argming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]=argming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]=argming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]\begin{align*} &\arg \min_{g(X)} E\Big[\big(Y - g(x)\big)^2\Big]\\ = …
In dem Text von Wackerly et al heißt es: "Sei und die momenterzeugende Funktion der Zufallsvariablen X bzw. Y. Wenn beide momenterzeugenden Funktionen existieren und für alle Werte von t haben X und Y die gleiche Wahrscheinlichkeitsverteilung. " Ohne einen Beweis, der den Rahmen des Textes sprengt. Scheaffer Young hat …
Entnommen aus Grimmet und Stirzaker : Zeigen Sie, dass es nicht möglich ist, dass U=X+YU=X+YU=X+Y wenn UUU gleichmäßig auf [0,1] verteilt ist und XXX und YYY unabhängig und gleich verteilt sind. Sie sollten nicht davon ausgehen, dass X und Y kontinuierliche Variablen sind. Ein einfacher Widerspruchsbeweis genügt für den Fall, …
Aus Wikipedia wird die Rangkorrelation von Spearman berechnet, indem die Variablen und in und konvertiert werden und anschließend die Pearson-Korrelation zwischen den berechnet wird:XiXiX_ix i y iYiYiY_ixixix_iyiyiy_i In dem Artikel heißt es jedoch weiter, dass die obige Formel äquivalent zu ist , wenn zwischen den Variablen und keine Bindungen bestehenY …
Ich bin kürzlich auf die bivariate Poisson-Verteilung gestoßen, bin jedoch ein wenig verwirrt, wie sie abgeleitet werden kann. Die Verteilung erfolgt durch: P ( X = x , Y = y ) = e - ( θ 1 + θ 2 + θ 0 ) θ x 1x ! θ …
Es ist anscheinend der Fall, dass wenn Xi∼N(0,1)Xi∼N(0,1)X_i \sim N(0,1) , dann X1X2+X3X4∼Laplace(0,1)X1X2+X3X4∼Laplace(0,1)X_1 X_2 + X_3 X_4 \sim \mathrm{Laplace(0,1)} Ich habe Artikel über beliebige quadratische Formen gesehen, die immer zu schrecklichen nicht-zentralen Chi-Quadrat-Ausdrücken führen. Die obige einfache Beziehung scheint mir überhaupt nicht offensichtlich zu sein, hat also (wenn es wahr …
In Elements of Statistical Learning wird ein Problem eingeführt, um Probleme mit k-nn in hochdimensionalen Räumen hervorzuheben. Es gibt NNN Datenpunkte, die gleichmäßig in einer ppp dimensionalen Einheitskugel verteilt sind. Der mittlere Abstand vom Ursprung zum nächsten Datenpunkt wird durch den Ausdruck angegeben: d(p,N)=(1−(12)1N)1pd(p,N)=(1−(12)1N)1pd(p,N) = \left(1-\left(\frac{1}{2}\right)^\frac{1}{N}\right)^\frac{1}{p} Wenn N=1N=1N=1 , zerfällt …
Wie können Sie beweisen, dass die normalen Gleichungen: eine oder mehrere Lösungen haben, ohne dass angenommen wird, dass X invertierbar ist?(XTX)β=XTY(XTX)β=XTY(X^TX)\beta = X^TY Meine einzige Vermutung ist, dass es etwas mit generalisierter Umkehrung zu tun hat, aber ich bin total verloren.
Wenn die Nachrichten über Dinge sprechen, die statistisch bewiesen wurden, verwenden sie ein genau definiertes Konzept der Statistik richtig, falsch oder nur ein Oxymoron? Ich stelle mir vor, dass ein "statistischer Beweis" nicht tatsächlich als Beweis für eine Hypothese oder einen mathematischen Beweis durchgeführt wird, sondern eher als "statistischer Test".
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.