Als «estimators» getaggte Fragen

Eine Regel zur Berechnung einer Schätzung einer bestimmten Menge basierend auf beobachteten Daten [Wikipedia].


1
Was ist der Unterschied zwischen asymptotischer Unparteilichkeit und Konsistenz?
Bedeutet jeder den anderen? Wenn nicht, impliziert das eine das andere? Warum Warum nicht? Dieses Problem trat als Antwort auf einen Kommentar zu einer Antwort auf, die ich hier gepostet habe . Obwohl die Google-Suche in den relevanten Begriffen nichts hervorbrachte, was besonders nützlich schien, bemerkte ich eine Antwort auf …

3
Warum ist der OLS-Schätzer des AR (1) -Koeffizienten voreingenommen?
Ich versuche zu verstehen, warum OLS einen voreingenommenen Schätzer für einen AR (1) -Prozess liefert. Betrachten Sie In diesem Modell wird die strikte Exogenität verletzt, dh und sind korreliert, aber und \ epsilon_t sind nicht korreliert . Aber wenn dies zutrifft, warum gilt dann die folgende einfache Ableitung nicht? ytϵtyt-1ϵtytϵt=α+βyt−1+ϵt,∼iidN(0,1).yt=α+βyt−1+ϵt,ϵt∼iidN(0,1). …


4
Wie erklärt man einem Laien, was ein unvoreingenommener Schätzer ist?
Angenommen, ist ein unvoreingenommener Schätzer für . Dann ist natürlich . θE[ θ |θ]=θθ^θ^\hat{\theta}θθ\thetaE[θ^∣θ]=θE[θ^∣θ]=θ\mathbb{E}[\hat{\theta} \mid \theta] = \theta Wie erklärt man das einem Laien? In der Vergangenheit habe ich gesagt , dass Sie eine bessere Annäherung an erhalten, wenn Sie eine Reihe von Werten von , wenn die Stichprobengröße größer …



1
root-n konsistenter Schätzer, aber root-n konvergiert nicht?
Ich habe den Begriff "root-n" konsistenter Schätzer oft gehört. Aufgrund der Ressourcen, von denen ich angewiesen wurde, dachte ich, dass ein konsistenter "root-n" -Schätzer Folgendes bedeutet: Der Schätzer konvergiert auf den wahren Wert (daher das Wort "konsistent"). Der Schätzer konvergiert mit einer Rate von1/n−−√1/n1/\sqrt{n} Das verwirrt mich, da nicht konvergiert? …

2
Verbesserung des Mindestschätzers
Angenommen, ich habe positive Parameter zum Schätzen von und deren entsprechenden unverzerrten Schätzungen, die von den Schätzern , dh , und so weiter.nnnμ1,μ2,...,μnμ1,μ2,...,μn\mu_1,\mu_2,...,\mu_nnnnμ1^,μ2^,...,μn^μ1^,μ2^,...,μn^\hat{\mu_1},\hat{\mu_2},...,\hat{\mu_n}E[μ1^]=μ1E[μ1^]=μ1\mathrm E[\hat{\mu_1}]=\mu_1E[μ2^]=μ2E[μ2^]=μ2\mathrm E[\hat{\mu_2}]=\mu_2 Ich möchte anhand der Schätzungen schätzen. Offensichtlich ist der naive Schätzer niedriger als min(μ1,μ2,...,μn)min(μ1,μ2,...,μn)\mathrm{min}(\mu_1,\mu_2,...,\mu_n)min(μ1^,μ2^,...,μn^)min(μ1^,μ2^,...,μn^)\mathrm{min}(\hat{\mu_1},\hat{\mu_2},...,\hat{\mu_n})E[min(μ1^,μ2^,...,μn^)]≤min(μ1,μ2,...,μn)E[min(μ1^,μ2^,...,μn^)]≤min(μ1,μ2,...,μn)\mathrm E[\mathrm{min}(\hat{\mu_1},\hat{\mu_2},...,\hat{\mu_n})]\leq \mathrm{min}(\mu_1,\mu_2,...,\mu_n) Angenommen, ich habe auch die Kovarianzmatrix der entsprechenden Schätzer …

1
Praktische Nützlichkeit der punktweisen Konvergenz ohne einheitliche Konvergenz
Motivation Leeb & Pötscher (2005) schreiben im Zusammenhang mit der Inferenz nach der Modellauswahl : Obwohl seit langem bekannt ist, dass die Einheitlichkeit (zumindest lokal) der Parameter ein wichtiges Thema bei der asymptotischen Analyse ist, wurde diese Lektion in der täglichen Praxis der ökonometrischen und statistischen Theorie oft vergessen, wo …


1
Effizienter Schätzer aus unzureichender Statistik
Angenommen, ich habe eine Statistik und weiß mit Sicherheit, dass es nicht ausreicht, einen Parameter zu schätzen .T(X)T(X)T(X)θθ\theta Ist es immer noch möglich, einen Schätzer , der effizient ist (unter konvexem Verlust), oder gibt es einen Satz (so etwas wie ein umgekehrter Rao-Blackwell), der besagt, dass dies unmöglich ist?θ^(T(X))θ^(T(X))\hat\theta(T(X)) Sie …

1
MLE von
Sei eine Zufallsstichprobe aus einer Verteilung mit pdf X1,X2,X3,...,XnX1,X2,X3,...,XnX_{1},X_{2},X_{3},...,X_{n}f(x;α,θ)=e−x/θθαΓ(α)xα−1I(0,∞)(x),α,θ>0f(x;α,θ)=e−x/θθαΓ(α)xα−1I(0,∞)(x),α,θ>0f(x;\alpha,\theta)=\frac{e^{-x/\theta}}{\theta^{\alpha}\Gamma(\alpha)}x^{\alpha-1}I_{(0,\infty)}(x ),\alpha,\theta>0 Finden Sie den Maximum-Likelihood-Schätzer für und . Seiαα\alphaθθ\thetaΨ(α)=dΓ(α)dαΨ(α)=dΓ(α)dα\Psi(\alpha)=\frac{d\Gamma(\alpha)}{d\alpha} Mein Versuch, L(α,θ)===∏i=1nf(xi)∏i=1ne−xi/θθαΓ(α)xα−1i1Γn(α)⋅θnα(∏i=1nxi)α−1exp(−∑i=1nxiθ)L(α,θ)=∏i=1nf(xi)=∏i=1ne−xi/θθαΓ(α)xiα−1=1Γn(α)⋅θnα(∏i=1nxi)α−1exp⁡(−∑i=1nxiθ)\begin{eqnarray*} \mathcal{L}(\alpha,\theta)&=&\prod_{i=1}^{n}f(x_i)\\ &=&\prod_{i=1}^{n}\frac{e^{-x_i/\theta}}{\theta^{\alpha}\Gamma(\alpha)}x_i^{\alpha-1}\\ &=&\frac{1}{\Gamma^{n}(\alpha)\cdot \theta^{n \alpha}}(\prod_{i=1}^{n}x_i)^{\alpha-1}\exp(-\sum_{i=1}^{n}\frac{x_i}{\theta}) \end{eqnarray*} ℓ(α,θ)δℓ(α,θ)δθ1θ2∑i=1nxiθ^=====−nlog(Γ(α))−nαlog(θ)+(α−1)∑i=1nlog(xi)−1θ∑i=1nxi−nαθ+1θ2∑i=1nxi=0nαθ∑ni=1xinα1αx¯ℓ(α,θ)=−nlog⁡(Γ(α))−nαlog⁡(θ)+(α−1)∑i=1nlog⁡(xi)−1θ∑i=1nxiδℓ(α,θ)δθ=−nαθ+1θ2∑i=1nxi=01θ2∑i=1nxi=nαθθ^=∑i=1nxinα=1αx¯\begin{eqnarray*} \ell(\alpha,\theta)&=&-n\log(\Gamma(\alpha))-n\alpha\log(\theta)+(\alpha-1)\sum_{i=1}^{n}\log(x_i)-\frac{1}{\theta}\sum_{i=1}^{n}x_i\\ \frac{\delta \ell(\alpha,\theta)}{\delta \theta}&=&-\frac{n\alpha}{\theta}+\frac{1}{\theta^2}\sum_{i=1}^{n}x_i=0\\ \frac{1}{\theta^2}\sum_{i=1}^{n}x_i&=&\frac{n\alpha}{\theta}\\ \hat{\theta}&=&\frac{\sum_{i=1}^{n}x_i}{n\alpha}\\ &=&\frac{1}{\alpha}\bar{x}\\ \end{eqnarray*} dℓ(α,θ^)dαlog(α)−Γ′(α)Γ(α)===−n⋅Γ′(α)Γ(α)−nlog(1αx¯)+∑i=1nlog(xi)=0−n⋅Γ′(α)Γ(α)+nlog(α)−nlog(x¯)+∑i=1nlog(xi)=0log(x¯)−∑ni=1log(xi)ndℓ(α,θ^)dα=−n⋅Γ′(α)Γ(α)−nlog⁡(1αx¯)+∑i=1nlog⁡(xi)=0=−n⋅Γ′(α)Γ(α)+nlog⁡(α)−nlog⁡(x¯)+∑i=1nlog⁡(xi)=0log⁡(α)−Γ′(α)Γ(α)=log⁡(x¯)−∑i=1nlog⁡(xi)n\begin{eqnarray*} \frac{d \ell(\alpha,\hat{\theta})}{d\alpha}&=&\frac{-n \cdot \Gamma'(\alpha)}{\Gamma(\alpha)}-n\log(\frac{1}{\alpha}\bar{x})+\sum_{i=1}^{n}\log(x_i)=0\\ &=&\frac{-n \cdot \Gamma'(\alpha)}{\Gamma(\alpha)}+n\log(\alpha)-n\log(\bar{x})+\sum_{i=1}^{n}\log(x_i)=0\\ \log(\alpha)-\frac{\Gamma'(\alpha)}{\Gamma(\alpha)}&=&\log(\bar{x})-\frac{\sum_{i=1}^{n}\log(x_i)}{n} \end{eqnarray*} Ich konnte nicht mehr …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.