Die erwartete quadratische Abweichung einer Zufallsvariablen von ihrem Mittelwert; oder die durchschnittliche quadratische Abweichung der Daten über ihren Mittelwert.
Ist es für eine gegebene konstante Zahl (zB 4) möglich, eine Wahrscheinlichkeitsverteilung für , so dass wir ?X V a r ( X ) = rrrrX.XXV a r (X.) = rVar(X)=r\mathrm{Var}(X)=r
Sei sind unterschiedliche Beobachtungen (keine Bindungen). Sei X ∗ 1 , . . . , X ∗ n bezeichnen eine Bootstrap-Probe (eine Probe aus der empirischen CDF) und lassen ˉ X ∗ n = 1X.1, . . . , X.nX.1,...,X.nX_{1},...,X_{n}X.∗1, . . . , X.∗nX.1∗,...,X.n∗X_{1}^{*},...,X_{n}^{*} . Finden SieE( ˉ X …
Wenn iid Poisson-Verteilungen mit dem Parameter ich herausgefunden, dass die maximale Wahrscheinlichkeitsschätzung für Daten . Daher können wir den entsprechenden Schätzer Meine Frage ist, wie würden Sie die Varianz dieses Schätzers berechnen?K1,…,KnK1,…,KnK_1, \dots, K_nββ\betaβ^(k1,…,kn)=1n∑i=1nkiβ^(k1,…,kn)=1n∑i=1nki\hat\beta (k_1, \dots, k_n) = \frac{1}{n} \sum_{i=1}^n k_ik1,…,knk1,…,knk_1, \dots, k_nT=1n∑i=1nKi.T=1n∑i=1nKi.T = \frac{1}{n} \sum_{i=1}^n K_i . Da jedes …
Ich bin nur neugierig auf die Nullhypothese eines Mann-Whitney-U-Tests. Ich sehe oft, dass die Nullhypothese lautet, dass zwei Populationen gleiche Verteilungen haben. Aber ich denke - wenn ich zwei normale Populationen mit dem gleichen Mittelwert, aber einer extrem ungleichen Varianz hätte, würde der Mann-Whitney-Test diesen Unterschied wahrscheinlich nicht erkennen. Ich …
Ich versuche, ein lineares Modell mit nur einem Prädiktor (z. B. (x, y)) an einige Daten anzupassen. Die Daten sind so, dass für kleine Werte von x die y-Werte eine enge Anpassung an eine gerade Linie ergeben. Wenn jedoch die x-Werte zunehmen, werden die y-Werte flüchtiger. Hier ist ein Beispiel …
Die folgenden Transplantate stammen aus diesem Artikel . Ich bin ein Neuling im Bootstrap und versuche, das parametrische, semiparametrische und nichtparametrische Bootstrapping-Bootstrapping für ein lineares gemischtes Modell mit R bootPaket zu implementieren. R-Code Hier ist mein RCode: library(SASmixed) library(lme4) library(boot) fm1Cult <- lmer(drywt ~ Inoc + Cult + (1|Block) + …
Ich schaue, ob Überfluss mit Größe zusammenhängt. Die Größe ist (natürlich) kontinuierlich, jedoch wird die Häufigkeit auf einer solchen Skala aufgezeichnet, dass A = 0-10 B = 11-25 C = 26-50 D = 51-100 E = 101-250 F = 251-500 G = 501-1000 H = 1001-2500 I = 2501-5000 J …
Nach dem Gesetz der Gesamtvarianz ist Var(X)=E(Var(X∣Y))+Var(E(X∣Y))Var(X)=E(Var(X∣Y))+Var(E(X∣Y))\operatorname{Var}(X)=\operatorname{E}(\operatorname{Var}(X\mid Y)) + \operatorname{Var}(\operatorname{E}(X\mid Y)) Wenn ich es beweisen will, schreibe ich Var(X)=E(X−EX)2=E{E[(X−EX)2∣Y]}=E(Var(X∣Y))Var(X)=E(X−EX)2=E{E[(X−EX)2∣Y]}=E(Var(X∣Y)) \begin{equation} \begin{aligned} \operatorname{Var}(X) &= \operatorname{E}(X - \operatorname{E}X)^2 \\ &= \operatorname{E}\left\{\operatorname{E}\left[(X - \operatorname{E}X)^2\mid Y\right]\right\} \\ &= \operatorname{E}(\operatorname{Var}(X\mid Y)) \end{aligned} \end{equation} Was stimmt damit nicht?
In den Kommentaren unter einem meiner Beiträge diskutierten Glen_b und ich, wie diskrete Verteilungen notwendigerweise einen abhängigen Mittelwert und eine abhängige Varianz haben. Für eine Normalverteilung ist es sinnvoll. Wenn ich Ihnen sage , haben Sie keine Ahnung, was ist, und wenn ich Ihnen sage , haben Sie keine Ahnung, …
Wenn Zufallsvariablen aus , definieren Sie X1,X2,⋯,XnX1,X2,⋯,XnX_1,X_2, \cdots, X_n∼N(0,σ2)∼N(0,σ2)\sim \mathcal{N}(0, \sigma^2)Z=maxi∈{1,2,⋯,n}XiZ=maxi∈{1,2,⋯,n}XiZ = \max_{i \in \{1,2,\cdots, n \}} X_i Wir haben das E[Z]≤σ2logn−−−−−√E[Z]≤σ2logn\mathbb{E}[Z] \le \sigma \sqrt{2 \log n} . Ich habe mich gefragt, ob es Ober- / Untergrenzen für Var(Z)Var(Z)\text{Var}(Z) .
Ich verstehe den Beweis, dass aber ich verstehe nicht, wie man die Verallgemeinerung auf beliebige lineare Kombinationen beweist.V.a r ( a X.+ b Y.) = a2V.a r ( X.) + b2V.a r ( Y.) + 2 a b C.o v ( X., Y.) ,Var(aX.+bY.)=ein2V.einr(X.)+b2V.einr(Y.)+2einbC.Öv(X.,Y.),Var(aX+bY) = a^2Var(X) +b^2Var(Y) + 2abCov(X,Y), Sei …
Ich weiß, dass die Varianz der Differenz zweier unabhängiger Variablen die Summe der Varianzen ist, und ich kann es beweisen. Ich möchte wissen, wohin die Kovarianz im anderen Fall führt.
Ich bin ein bisschen verwirrt. Ich habe dieses Papier gelesen, in dem erklärt wurde, dass die Absacktechnik die Varianz stark verringert und die Vorspannung nur geringfügig erhöht. Ich habe es nicht verstanden, warum es die Varianz reduziert. Ich weiß, was Varianz und Voreingenommenheit sind. Bias ist die Unfähigkeit des Modells, …
Ich versuche ein lineares gemischtes Modell zu erzeugen. Der R-Code lautet wie folgt. lme (Average.payoff ~ Spiel + Typ + Andere.Typ + Spiel: Typ + Spiel: Andere.Typ + Typ: Andere.Typ, zufällig = ~ 1 | Subjekte, Methode = "REML", Daten = Subjektsm1) -> lme1 Der Antwortterm Average.payoff ist stetig, während …
... Ein weiteres potenzielles Problem bei der Anwendung von 2SLS- und anderen IV-Verfahren besteht darin, dass die 2SLS-Standardfehler tendenziell "groß" sind. Mit dieser Aussage ist normalerweise gemeint, dass entweder 2SLS-Koeffizienten statistisch nicht signifikant sind oder dass der 2SLS-Standard Fehler sind viel größer als die OLS-Standardfehler. Es überrascht nicht, dass die …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.