Als «self-study» getaggte Fragen

Eine Routineübung aus einem Lehrbuch, Kurs oder Test, die für eine Klasse oder ein Selbststudium verwendet wird. Die Richtlinie dieser Community besteht darin, "hilfreiche Hinweise" für solche Fragen zu geben, anstatt vollständige Antworten zu geben.

3
Verteilung von wenn unabhängige -Variablen sind
Als Routineübung versuche ich, die Verteilung von wobei und unabhängige Zufallsvariablen sind.X2+Y2−−−−−−−√X2+Y2\sqrt{X^2+Y^2}XXXYYYU(0,1)U(0,1) U(0,1) Die Gelenkdichte von ist (X,Y)(X,Y)(X,Y)fX,Y(x,y)=10&lt;x,y&lt;1fX,Y(x,y)=10&lt;x,y&lt;1f_{X,Y}(x,y)=\mathbf 1_{0\cos^{-1}\left(\frac{1}{z}\right)cosθcos⁡θ\cos\thetaθ∈[0,π2]θ∈[0,π2]\theta\in\left[0,\frac{\pi}{2}\right]zsinθ&lt;1⟹θ&lt;sin−1(1z)zsin⁡θ&lt;1⟹θ&lt;sin−1⁡(1z)z\sin\theta<1\implies\theta<\sin^{-1}\left(\frac{1}{z}\right)sinθsin⁡θ\sin\thetaθ∈[0,π2]θ∈[0,π2]\theta\in\left[0,\frac{\pi}{2}\right] Für haben wir also .1&lt;z&lt;2–√1&lt;z&lt;21< z<\sqrt 2cos−1(1z)&lt;θ&lt;sin−1(1z)cos−1⁡(1z)&lt;θ&lt;sin−1⁡(1z)\cos^{-1}\left(\frac{1}{z}\right)<\theta<\sin^{-1}\left(\frac{1}{z}\right) Der Absolutwert von Jacobian der Transformation ist|J|=z|J|=z|J|=z Somit ist die Verbindungsdichte von gegeben durch(Z,Θ)(Z,Θ)(Z,\Theta) fZ,Θ(z,θ)=z1{z∈(0,1),θ∈(0,π/2)}⋃{z∈(1,2√),θ∈(cos−1(1/z),sin−1(1/z))}fZ,Θ(z,θ)=z1{z∈(0,1),θ∈(0,π/2)}⋃{z∈(1,2),θ∈(cos−1⁡(1/z),sin−1⁡(1/z))}f_{Z,\Theta}(z,\theta)=z\mathbf 1_{\{z\in(0,1),\,\theta\in\left(0,\pi/2\right)\}\bigcup\{z\in(1,\sqrt2),\,\theta\in\left(\cos^{-1}\left(1/z\right),\sin^{-1}\left(1/z\right)\right)\}} Durch Integration von erhalten wir das pdf von …

1
Ableitung des Kreuzentropieverlusts in word2vec
Ich versuche, mich durch den ersten Problemsatz des cs224d Online-Kurskurses in Stanford zu arbeiten, und ich habe einige Probleme mit Problem 3A: Wenn wir das Skip-Gramm-word2vec-Modell mit der Softmax-Vorhersagefunktion und der Cross-Entropy-Loss-Funktion verwenden, haben wir wollen die Gradienten in Bezug auf die vorhergesagten Wortvektoren berechnen. Also gegeben die Softmax-Funktion: wi^=Pr(wordi∣r^,w)=exp(wTir^)∑|V|jexp(wTjr^)wi^=Pr(wordi∣r^,w)=exp⁡(wiTr^)∑j|V|exp(wjTr^) …

1
Unvoreingenommener Schätzer mit minimaler Varianz für
Sei eine Zufallsstichprobe aus einer Verteilung für . DhX1,...,XnX1,...,Xn X_1, ...,X_nGeometric(θ)Geometric(θ)Geometric(\theta)0&lt;θ&lt;10&lt;θ&lt;10<\theta<1 pθ(x)=θ(1−θ)x−1I{1,2,...}(x)pθ(x)=θ(1−θ)x−1I{1,2,...}(x)p_{\theta}(x)=\theta(1-\theta)^{x-1} I_{\{1,2,...\}}(x) Finden Sie den unverzerrten Schätzer mit der minimalen Varianz fürg(θ)=1θg(θ)=1θg(\theta)=\frac{1}{\theta} Mein Versuch: Da die geometrische Verteilung aus der Exponentialfamilie stammt, ist die Statistik vollständig und für ausreichend . Auch wenn ein Schätzer für , ist es unverzerrt. …

1
Exponentielle Familie: Beobachtete vs. erwartete ausreichende Statistik
Meine Frage ergibt sich aus dem Lesen von Minkas "Schätzung einer Dirichlet-Verteilung" , in dem Folgendes ohne Beweis im Zusammenhang mit der Ableitung eines Maximum-Likelihood-Schätzers für eine Dirichlet-Verteilung auf der Grundlage von Beobachtungen von Zufallsvektoren angegeben wird: Wie immer bei der Exponentialfamilie sind bei einem Gradienten von Null die erwarteten …

1
Log Likelihood für GLM
Im folgenden Code führe ich eine logistische Regression für gruppierte Daten mit glm und "von Hand" mit mle2 durch. Warum gibt mir die logLik-Funktion in R eine Log-Wahrscheinlichkeit logLik (fit.glm) = - 2.336, die sich von der logLik (fit.ml) = - 5.514 unterscheidet, die ich von Hand erhalte? library(bbmle) #successes …

3
Übung 2.2 der Elemente des statistischen Lernens
Das Lehrbuch generiert zunächst einige 2-Klassen-Daten über: was gibt: und dann fragt es: Ich versuche dies zu lösen, indem ich dies zuerst mit diesem grafischen Modell modelliere: Dabei ist die Bezeichnung, der Index des ausgewählten Mittelwerts und der Datenpunkt. Dies wird gebenhcccm c h xh(1≤h≤10)h(1≤h≤10)h\,(1\le h \le 10)mchmhcm_h^cxxx Pr(x∣mch)=Pr(mch∣h,c=blue)=Pr(mch∣h,c=orange)=Pr(h)=Pr(c)=N(mch,I/5)N((1,0)T,I)N((0,1)T,I)11012Pr(x∣mhc)=N(mhc,I/5)Pr(mhc∣h,c=blue)=N((1,0)T,I)Pr(mhc∣h,c=orange)=N((0,1)T,I)Pr(h)=110Pr(c)=12 \begin{align*} …

4
Zeitdiskretes Ereignisverlaufsmodell (Überlebensmodell) in R.
Ich versuche, ein zeitdiskretes Modell in R einzubauen, bin mir aber nicht sicher, wie ich das machen soll. Ich habe gelesen, dass Sie die abhängige Variable in verschiedenen Zeilen organisieren können, eine für jede glmZeitbeobachtung , und die Funktion mit einem Logit- oder Cloglog-Link verwenden können. In diesem Sinne, ich …
10 r  survival  pca  sas  matlab  neural-networks  r  logistic  spatial  spatial-interaction-model  r  time-series  econometrics  var  statistical-significance  t-test  cross-validation  sample-size  r  regression  optimization  least-squares  constrained-regression  nonparametric  ordinal-data  wilcoxon-signed-rank  references  neural-networks  jags  bugs  hierarchical-bayesian  gaussian-mixture  r  regression  svm  predictive-models  libsvm  scikit-learn  probability  self-study  stata  sample-size  spss  wilcoxon-mann-whitney  survey  ordinal-data  likert  group-differences  r  regression  anova  mathematical-statistics  normal-distribution  random-generation  truncation  repeated-measures  variance  variability  distributions  random-generation  uniform  regression  r  generalized-linear-model  goodness-of-fit  data-visualization  r  time-series  arima  autoregressive  confidence-interval  r  time-series  arima  autocorrelation  seasonality  hypothesis-testing  bayesian  frequentist  uninformative-prior  correlation  matlab  cross-correlation 

1
R lineare Regression kategoriale Variable "versteckter" Wert
Dies ist nur ein Beispiel, auf das ich mehrmals gestoßen bin, daher habe ich keine Beispieldaten. Ausführen eines linearen Regressionsmodells in R: a.lm = lm(Y ~ x1 + x2) x1ist eine stetige Variable. x2ist kategorisch und hat drei Werte, z. B. "Niedrig", "Mittel" und "Hoch". Die von R gegebene Ausgabe …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

1
Finden Sie UMVUE von
Sei X1,X2,...,XnX1,X2,...,XnX_1, X_2, . . . , X_n sind Zufallsvariablen mit pdf fX(x∣θ)=θ(1+x)−(1+θ)I(0,∞)(x)fX(x∣θ)=θ(1+x)−(1+θ)I(0,∞)(x)f_X(x\mid\theta) =\theta(1 +x)^{−(1+\theta)}I_{(0,\infty)}(x) wobei θ&gt;0θ&gt;0\theta >0 . Geben Sie den UMVUE von 1θ1θ\frac{1}{\theta} und berechne seine Varianz Ich habe zwei solcher Methoden für erhaltene UMVUEs gelernt: Cramer-Rao Lower Bound (CRLB) Lehmann-Scheffe davon Ich werde dies mit dem ersteren …

2
Bootstrapping-Konfidenzintervall aus einer Regressionsvorhersage
Für die Hausaufgaben erhielt ich Daten, um einen Prädiktor zu erstellen / zu trainieren, der die Lasso-Regression verwendet. Ich erstelle den Prädiktor und trainiere ihn mit der Lasso-Python-Bibliothek von scikit learn. Jetzt habe ich diesen Prädiktor, der bei gegebener Eingabe die Ausgabe vorhersagen kann. Die zweite Frage lautete: "Erweitern Sie …


5
Wenn
Lassen und unabhängige Ereignisse, und sei und unabhängige Ereignisse sein. Wie zeige ich, dass und auch unabhängige Ereignisse sind?AAABBBAAACCCAAAB∪CB∪CB\cup C Nach der Definition unabhängiger Ereignisse sind und genau dann unabhängig, wennAAAB∪CB∪CB\cup CP(A∩(B∪C))=P(A)P(B∪C).P(A∩(B∪C))=P(A)P(B∪C).P(A\cap (B\cup C)) = P(A)P(B\cup C). Da und und und unabhängig sind, weiß ich, dass AAABBBAAACCCP(A∩B)=P(A)P(B)andP(A∩C)=P(A)P(C).P(A∩B)=P(A)P(B)andP(A∩C)=P(A)P(C).P(A\cap B) = P(A)P(B) …

3
Rechte Zensur und linke Zensur
Wikipedia gibt folgende Definitionen: Richtige Zensur : Ein Datenpunkt liegt über einem bestimmten Wert, aber es ist nicht bekannt, um wie viel. Linke Zensur : Ein Datenpunkt liegt unter einem bestimmten Wert, aber es ist nicht bekannt, um wie viel. Was ist in diesen Definitionen gemeint mit: "Datenpunkt" "bestimmter Wert" …


2
Wahrscheinlichkeit von
Angenommen, und sind unabhängige geometrische Zufallsvariablen mit dem Parameter . Wie ist die Wahrscheinlichkeit, dass ?X1X1X_1X2X2X_2pppX1≥X2X1≥X2X_1 \geq X_2 Ich bin verwirrt über diese Frage, weil uns nichts anderes über und gesagt wird, als dass sie geometrisch sind. Wäre das nicht weil und alles im Bereich sein können?X1X1X_1X2X2X_250%50%50\%X1X1X_1X2X2X_2 EDIT: Neuer Versuch …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.