Als «self-study» getaggte Fragen

Eine Routineübung aus einem Lehrbuch, Kurs oder Test, die für eine Klasse oder ein Selbststudium verwendet wird. Die Richtlinie dieser Community besteht darin, "hilfreiche Hinweise" für solche Fragen zu geben, anstatt vollständige Antworten zu geben.

3
Neyman-Pearson-Lemma
Ich habe das Neyman-Pearson-Lemma aus dem Buch Introduction to the Theory of Statistics von Mood, Graybill und Boes gelesen . Aber ich habe das Lemma nicht verstanden. Kann mir bitte jemand das Lemma in einfachen Worten erklären? Was heißt es? Neyman-Pearson-Lemma: Sei eine Zufallsstichprobe aus , wobei einer von zwei …


1
Unterschied zwischen Hidden Markov-Modellen und Partikelfilter (und Kalman-Filter)
Hier ist meine alte Frage Ich möchte fragen, ob jemand den Unterschied (falls vorhanden) zwischen Hidden Markov-Modellen (HMM) und Partikelfilter (PF) und folglich Kalman-Filter kennt oder unter welchen Umständen wir welchen Algorithmus verwenden. Ich bin Student und muss ein Projekt machen, aber zuerst muss ich einige Dinge verstehen. Entsprechend der …


4
Wie projiziert man einen neuen Vektor auf den PCA-Raum?
Nach der Durchführung der Hauptkomponentenanalyse (PCA) möchte ich einen neuen Vektor auf den PCA-Raum projizieren (dh seine Koordinaten im PCA-Koordinatensystem finden). Ich habe PCA in R-Sprache mit berechnet prcomp. Jetzt sollte ich meinen Vektor mit der PCA-Rotationsmatrix multiplizieren können. Sollen die Hauptkomponenten in dieser Matrix in Zeilen oder Spalten angeordnet …
21 r  pca  r  variance  heteroscedasticity  misspecification  distributions  time-series  data-visualization  modeling  histogram  kolmogorov-smirnov  negative-binomial  likelihood-ratio  econometrics  panel-data  categorical-data  scales  survey  distributions  pdf  histogram  correlation  algorithms  r  gpu  parallel-computing  approximation  mean  median  references  sample-size  normality-assumption  central-limit-theorem  rule-of-thumb  confidence-interval  estimation  mixed-model  psychometrics  random-effects-model  hypothesis-testing  sample-size  dataset  large-data  regression  standard-deviation  variance  approximation  hypothesis-testing  variance  central-limit-theorem  kernel-trick  kernel-smoothing  error  sampling  hypothesis-testing  normality-assumption  philosophical  confidence-interval  modeling  model-selection  experiment-design  hypothesis-testing  statistical-significance  power  asymptotics  information-retrieval  anova  multiple-comparisons  ancova  classification  clustering  factor-analysis  psychometrics  r  sampling  expectation-maximization  markov-process  r  data-visualization  correlation  regression  statistical-significance  degrees-of-freedom  experiment-design  r  regression  curve-fitting  change-point  loess  machine-learning  classification  self-study  monte-carlo  markov-process  references  mathematical-statistics  data-visualization  python  cart  boosting  regression  classification  robust  cart  survey  binomial  psychometrics  likert  psychology  asymptotics  multinomial 

4
Kann jemand das Konzept einer „Summe von Zufallsvariablen“ klarstellen?
In meiner Wahrscheinlichkeitsklasse werden ständig die Begriffe "Summen von Zufallsvariablen" verwendet. Ich bin jedoch nicht sicher, was das genau bedeutet. Sprechen wir über die Summe mehrerer Realisierungen aus einer Zufallsvariablen? Wenn ja, ergibt das nicht eine einzige Zahl? Wie führt uns eine Summe von zufälligen Variablenrealisierungen zu einer Distribution oder …

2
Vorteile der Exponentialfamilie: Warum sollten wir sie studieren und anwenden?
Hier studiere ich also Inferenz. Ich möchte, dass jemand die Vorteile der exponentiellen Familie aufzählen könnte. Mit Exponentialfamilie meine ich die Verteilungen, die gegeben sind als f(x|θ)=h(x)exp{η(θ)T(x)−B(θ)}f(x|θ)=h(x)exp⁡{η(θ)T(x)−B(θ)}\begin{align*} f(x|\theta) = h(x)\exp\left\{\eta(\theta)T(x) - B(\theta)\right\} \end{align*} wessen Unterstützung nicht vom Parameter abhängt . Hier sind einige Vorteile, die ich herausgefunden habe:θθ\theta (a) Es …


2
Angenommen, . Show
Wie lässt sich am einfachsten feststellen, dass die folgende Aussage zutrifft? Angenommen, . Zeige .Y1,…,Yn∼iidExp(1)Y1,…,Yn∼iidExp(1)Y_1, \dots, Y_n \overset{\text{iid}}{\sim} \text{Exp}(1)∑ni=1(Yi−Y(1))∼Gamma(n−1,1)∑i=1n(Yi−Y(1))∼Gamma(n−1,1)\sum_{i=1}^{n}(Y_i - Y_{(1)}) \sim \text{Gamma}(n-1, 1) Beachten Sie, dass .Y(1)=min1≤i≤nYiY(1)=min1≤i≤nYiY_{(1)} = \min\limits_{1 \leq i \leq n}Y_i Mit X∼Exp(β)X∼Exp(β)X \sim \text{Exp}(\beta) bedeutet dies, dass fX(x)=1βe−x/β⋅1{x>0}fX(x)=1βe−x/β⋅1{x>0}f_{X}(x) = \dfrac{1}{\beta}e^{-x/\beta} \cdot \mathbf{1}_{\{x > 0\}} . Es …


1
Nachweis der LOOCV-Formel
Aus einer Einführung in das statistische Lernen von James et al. Geht hervor, dass die LOOCV-Schätzung (Leave-One-Out-Cross-Validation) durch wobei .CV(n)=1n∑i=1nMSEiCV(n)=1n∑i=1nMSEi\text{CV}_{(n)} = \dfrac{1}{n}\sum\limits_{i=1}^{n}\text{MSE}_iMSEi=(yi−y^i)2MSEi=(yi−y^i)2\text{MSE}_i = (y_i-\hat{y}_i)^2 Ohne Beweis besagt Gleichung (5.2), dass für eine Regression der kleinsten Quadrate oder des Polynoms (ob dies für die Regression nur einer Variablen gilt, ist mir …


4
Was ist die Intuition hinter der Unabhängigkeit von
Ich hatte gehofft, jemand könnte ein Argument vorschlagen, das erklärt, warum die Zufallsvariablen und , wobei die Standardnormalverteilung hat, statistisch unabhängig sind. Der Beweis für diese Tatsache ergibt sich leicht aus der MGF-Technik, aber ich finde sie äußerst kontraintuitiv.Y1=X2−X1Y1=X2−X1Y_1=X_2-X_1Y2=X1+X2Y2=X1+X2Y_2=X_1+X_2XiXiX_i Ich würde mich daher über die Intuition hier freuen, wenn überhaupt. …


1
Quiz: Teilen Sie dem Klassifikator die Entscheidungsgrenze mit
Gegeben sind die 6 Entscheidungsgrenzen unten. Entscheidungsgrenzen sind violette Linien. Punkte und Kreuze sind zwei verschiedene Datensätze. Wir müssen uns entscheiden, welches ein ist: Lineare SVM Kernelized SVM (Polynomkern der Ordnung 2) Perceptron Logistische Regression Neuronales Netzwerk (1 versteckte Schicht mit 10 gleichgerichteten Lineareinheiten) Neuronales Netzwerk (1 versteckte Schicht mit …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.