Als «convergence» getaggte Fragen

Konvergenz bedeutet im Allgemeinen, dass sich eine Sequenz einer bestimmten Probenmenge einer Konstanten nähert, wenn die Probengröße gegen unendlich tendiert. Konvergenz ist auch eine Eigenschaft eines iterativen Algorithmus zur Stabilisierung eines bestimmten Zielwerts.


4
Intuitives Verständnis des Unterschieds zwischen konsistent und asymptotisch unvoreingenommen
Ich versuche, ein intuitives Verständnis und Gefühl für den Unterschied und den praktischen Unterschied zwischen dem Begriff konsistent und asymptotisch unvoreingenommen zu bekommen. Ich kenne ihre mathematischen / statistischen Definitionen, suche aber etwas Intuitives. Wenn ich ihre individuellen Definitionen betrachte, scheinen sie mir fast dasselbe zu sein. Mir ist klar, …


2
Ist Slutskys Theorem immer noch gültig, wenn zwei Folgen zu einer nicht entarteten Zufallsvariablen konvergieren?
Ich bin verwirrt über einige Details zu Slutskys Theorem : Sei , zwei Folgen von skalaren / Vektor / Matrix-Zufallselementen.{Xn}{Xn}\{X_n\}{Yn}{Yn}\{Y_n\} Konvergiert in der Verteilung zu einem zufälligen Element und Y_n in der Wahrscheinlichkeit zu einer Konstanten c , dann \ eqalign {X_ {n} + Y_ {n} \ & {\ xrightarrow …

3
In Bezug auf die Konvergenz der Wahrscheinlichkeit
Sei {Xn}n≥1{Xn}n≥1\{X_n\}_{n\geq 1} eine Folge von Zufallsvariablen st Xn→aXn→aX_n \to a in der Wahrscheinlichkeit, wobei a>0a>0a>0 eine feste Konstante ist. Ich versuche folgendes zu zeigen: Xn−−−√→a−−√Xn→a\sqrt{X_n} \to \sqrt{a} und aXn→1aXn→1\frac{a}{X_n}\to 1 beide in Wahrscheinlichkeit. Ich bin hier, um zu sehen, ob meine Logik richtig war. Hier ist meine Arbeit VERSUCH …


3
Noch eine zentrale Frage zum Grenzwertsatz
Sei {Xn:n≥1}{Xn:n≥1}\{X_n:n\ge1\} eine Folge unabhängiger Bernoulli-Zufallsvariablen mit P{Xk=1}=1−P{Xk=0}=1k.P{Xk=1}=1−P{Xk=0}=1k.P\{X_k=1\}=1-P\{X_k=0\}=\frac{1}{k}. Setze Sn=∑k=1n(Xk−1k), B2n=∑k=1nk−1k2Sn=∑k=1n(Xk−1k), Bn2=∑k=1nk−1k2S_n=\sum^{n}_{k=1}\left(X_k-\frac{1}{k}\right), \ B_n^2=\sum^{n}_{k=1}\frac{k-1}{k^2} Zeigen Sie, dassSnBnSnBn\frac{S_n}{B_n} konvergiert in der Verteilung gegen die StandardnormalvariableZZZdannngegen unendlich tendiert. Mein Versuch ist es, die Lyapunov-CLT zu verwenden, daher müssen wir zeigen, dass es ein δ>0δ>0\delta>0 so dass limn→∞1B2+δn∑k=1nE[|Xk−1k|2+δ]=0.limn→∞1Bn2+δ∑k=1nE[|Xk−1k|2+δ]=0.\lim_{n\rightarrow \infty}\frac{1}{B_n^{2+\delta}}\sum_{k=1}^{n}E[|X_k-\frac{1}{k}|^{2+\delta}]=0. Also setze n ∑ …

1
Ist MLE von asymptotisch normal, wenn ?
Angenommen, hat das PDF(X,Y)(X,Y)(X,Y) fθ(x,y)=e−(x/θ+θy)1x>0,y>0,θ>0fθ(x,y)=e−(x/θ+θy)1x>0,y>0,θ>0f_{\theta}(x,y)=e^{-(x/\theta+\theta y)}\mathbf1_{x>0,y>0}\quad,\,\theta>0 Die Dichte der Stichprobe die aus dieser Population gezogen wird, ist daher(X,Y)=(Xi,Yi)1≤i≤n(X,Y)=(Xi,Yi)1≤i≤n(\mathbf X,\mathbf Y)=(X_i,Y_i)_{1\le i\le n} gθ(x,y)=∏i=1nfθ(xi,yi)=exp[−∑i=1n(xiθ+θyi)]1x1,…,xn,y1,…,yn>0=exp[−nx¯θ−θny¯]1x(1),y(1)>0,θ>0gθ(x,y)=∏i=1nfθ(xi,yi)=exp⁡[−∑i=1n(xiθ+θyi)]1x1,…,xn,y1,…,yn>0=exp⁡[−nx¯θ−θny¯]1x(1),y(1)>0,θ>0\begin{align} g_{\theta}(\mathbf x,\mathbf y)&=\prod_{i=1}^n f_{\theta}(x_i,y_i) \\&=\exp\left[{-\sum_{i=1}^n\left(\frac{x_i}{\theta}+\theta y_i\right)}\right]\mathbf1_{x_1,\ldots,x_n,y_1,\ldots,y_n>0} \\&=\exp\left[-\frac{n\bar x}{\theta}-\theta n\bar y\right]\mathbf1_{x_{(1)},y_{(1)}>0}\quad,\,\theta>0 \end{align} Der Maximum-Likelihood-Schätzer von θθ\theta kann abgeleitet werden als θ^(X,Y)=X¯¯¯¯Y¯¯¯¯−−−√θ^(X,Y)=X¯Y¯\hat\theta(\mathbf X,\mathbf Y)=\sqrt\frac{\overline X}{\overline Y} Ich möchte wissen, …


3
Statistischer Test, um zu überprüfen, wann zwei ähnliche Zeitreihen voneinander abweichen
Ab dem Titel möchte ich wissen, ob es einen statistischen Test gibt, der mir helfen kann, eine signifikante Abweichung zwischen zwei ähnlichen Zeitreihen zu identifizieren. In der folgenden Abbildung möchte ich insbesondere feststellen, dass die Reihen zum Zeitpunkt t1 zu divergieren beginnen, dh wenn der Unterschied zwischen ihnen signifikant wird. …

2
Beweisen oder liefern Sie ein Gegenbeispiel: Wenn XnXnX_n →a.s.→a.s.\,{\buildrel a.s. \over \rightarrow}\, XXX , dann(∏ni=1Xi)1/n(∏i=1nXi)1/n(\prod_{i=1}^{n}X_i)^{1/n} →a.s.→a.s.\,{\buildrel a.s. \over \rightarrow}\, XXX Mein Versuch : FALSE: Angenommen, XXX kann nur negative Werte annehmen und Xn≡XXn≡XX_n \equiv X ∀∀\forall nnn DANN XnXnX_n →a.s.→a.s.\,{\buildrel a.s. \over \rightarrow}\, XXX , aber auch fürnnn ,(∏ni=1Xi)1/n(∏i=1nXi)1/n(\prod_{i=1}^{n}X_i)^{1/n} ist …

1
Gibt es einen Satz, der besagt, dass in der Verteilung zu einer Normalen konvergiert, wenn gegen unendlich geht?
Sei eine beliebige Verteilung mit definiertem Mittelwert und Standardabweichung . Der zentrale Grenzwertsatz besagt, dass in der Verteilung zu einer Standardnormalverteilung konvergiert. Wenn wir durch die Stichprobenstandardabweichung ersetzen , gibt es einen Satz, der besagt, dass in der Verteilung zu einer t-Verteilung konvergiert? Da für großeXXXμμ\muσσ\sigman−−√X¯−μσnX¯−μσ \sqrt{n}\frac{\bar{X} - \mu}{\sigma} σσ\sigmaSSSn−−√X¯−μSnX¯−μS …


1
Fast sichere Konvergenz bedeutet keine vollständige Konvergenz
Wir sagen, konvergieren vollständig zu wenn für jedes .X1,X2,…X1,X2,…X_1, X_2, \ldotsXXXϵ&gt;0ϵ&gt;0\epsilon>0 ∑∞n=1P(|Xn−X|&gt;ϵ)&lt;∞∑n=1∞P(|Xn−X|&gt;ϵ)&lt;∞\sum_{n=1}^\infty \text{P}\left(|X_n-X|>\epsilon\right) <\infty Mit Borel Cantellis Lemma ist es einfach zu beweisen, dass vollständige Konvergenz eine fast sichere Konvergenz impliziert. Ich suche ein Beispiel, bei dem die Konvergenz mit Borel Cantelli fast nicht nachgewiesen werden kann. Dies ist eine …

1
R lineare Regression kategoriale Variable "versteckter" Wert
Dies ist nur ein Beispiel, auf das ich mehrmals gestoßen bin, daher habe ich keine Beispieldaten. Ausführen eines linearen Regressionsmodells in R: a.lm = lm(Y ~ x1 + x2) x1ist eine stetige Variable. x2ist kategorisch und hat drei Werte, z. B. "Niedrig", "Mittel" und "Hoch". Die von R gegebene Ausgabe …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.