Als «bayesian» getaggte Fragen

Die Bayes'sche Inferenz ist eine Methode der statistischen Inferenz, die darauf beruht, die Modellparameter als Zufallsvariablen zu behandeln und den Bayes'schen Satz anzuwenden, um subjektive Wahrscheinlichkeitsaussagen über die Parameter oder Hypothesen abzuleiten, abhängig vom beobachteten Datensatz.


3
Bayesian AB-Test
Ich führe einen AB-Test auf einer Seite durch, die nur 5.000 Besuche pro Monat erhält. Es würde zu lange dauern, bis das Verkehrsniveau erreicht ist, das erforderlich ist, um einen Unterschied von + -1% zwischen Test und Kontrolle zu messen. Ich habe gehört, dass ich Bayes'sche Statistiken verwenden kann, um …

1
Verwendung der Kernel-Dichteschätzung im Naive Bayes Classifier?
Diese Frage ist eine Fortsetzung meiner früheren Frage hier und bezieht sich absichtlich auch auf diese Frage . Auf dieser Wiki-Seite werden Wahrscheinlichkeitsdichtewerte aus einer angenommenen Normalverteilung für den Trainingssatz verwendet, um einen Bayes'schen posterioren Wert anstelle der tatsächlichen Wahrscheinlichkeitswerte zu berechnen. Wenn ein Trainingssatz jedoch nicht normal verteilt ist, …
9 bayesian  kde 

2
Parameter als Zufallsvariable in der Bayes'schen Statistik verstehen
Wenn ich das richtig verstehe, ist in der Bayes'schen Statistik ein Parameter eine Zufallsvariable. Bei der Schätzung des Parameters wird eine vorherige Verteilung mit den Daten kombiniert, um eine hintere Verteilung zu erhalten. Frage: Wird jeder Datenpunkt (sowohl in der Stichprobe als auch in der Grundgesamtheit) durch dieselbe Realisierung des …
9 bayesian 

2
Probabilistische Programmierung gegen "traditionelle" ML
Ich habe im Github-Repo nach Pymc gesucht und dieses Notizbuch gefunden: Variationsinferenz: Bayesianische Neuronale Netze Der Autor lobt die Vorzüge der bayesianischen / probabilistischen Programmierung, sagt dann aber weiter: Leider spielt die probabilistische Programmierung bei traditionellen ML-Problemen wie Klassifizierung oder (nichtlinearer) Regression häufig eine zweite Rolle (in Bezug auf Genauigkeit …

2
Das Bayes-Risiko verstehen
Bei der Bewertung eines Schätzers sind die beiden wahrscheinlich am häufigsten verwendeten Kriterien das maximale Risiko und das Bayes-Risiko. Meine Frage bezieht sich auf die letztere: Das Bayes-Risiko unter dem vorherigen ist wie folgt definiert:ππ\pi Bπ(θ^)=∫R(θ,θ^)π(θ)dθBπ(θ^)=∫R(θ,θ^)π(θ)dθB_{\pi} (\hat{\theta}) = \int R(\theta, \hat{\theta} ) \pi ( \theta ) d \theta Ich verstehe …

1
Wie schreibe ich das elastische Netz richtig?
Ich bin verwirrt über die richtige Art, das elastische Netz zu schreiben. Nach dem Lesen einiger Forschungsarbeiten scheint es drei Formen zu geben 1)exp{ - λ1| βk| - λ2β2k}}exp⁡{- -λ1|βk|- -λ2βk2}}\exp\{-\lambda_1|\beta_k|-\lambda_2\beta_k^2\} 2)exp{ - ( λ1| βk| + λ2β2k)σ2√}}exp⁡{- -(λ1|βk|+λ2βk2)σ2}}\exp\{-\frac{(\lambda_1|\beta_k|+\lambda_2\beta_k^2)}{\sqrt{\sigma^2}}\} 3)exp{ - ( λ1| βk| + λ2β2k)2 σ2}}exp⁡{- -(λ1|βk|+λ2βk2)2σ2}}\exp\{-\frac{(\lambda_1|\beta_k|+\lambda_2\beta_k^2)}{2\sigma^2}\} Ich verstehe …

2
Sind Produkte von austauschbaren Wohnmobilen austauschbar?
Angenommen, und sind zwei zufällige Variablen, deren Komponenten binäre RVs sind (daher ) und beide ( und ) sind austauschbar, dhX=(X1,...,Xn),:(Ω,A,P)→({0,1}n,2{0,1}n)X=(X1,...,Xn),:(Ω,A,P)→({0,1}n,2{0,1}n)X=(X_1, ..., X_n),: (\Omega, A,P)\to (\{0,1\}^n, 2^{{\{0,1\}}^n})Y=(Y1,...,Yn):(Ω,A,P)→({0,1}n,2{0,1}n)Y=(Y1,...,Yn):(Ω,A,P)→({0,1}n,2{0,1}n)Y=(Y_1, ..., Y_n):(\Omega, A,P)\to (\{0,1\}^n, 2^{{\{0,1\}}^n})Xi(ω)∈{0,1},Yi(ω)∈{0,1}Xi(ω)∈{0,1},Yi(ω)∈{0,1}X_i(\omega)\in\{0,1\}, Y_i(\omega) \in \{0,1\}XXXYYYP((X1,...,Xn)=(x1,...,xn))=P((Xσ(1),...,Xσ(n))=(x1,...,xn))P((X1,...,Xn)=(x1,...,xn))=P((Xσ(1),...,Xσ(n))=(x1,...,xn))P((X_1, ..., X_n)=(x_1, ..., x_n))= P((X_{\sigma(1)}, ..., X_{\sigma(n)})=(x_1, ..., x_n)) und P((Y1,...,Yn)=(y1,...,yn))=P((Yσ(1),...,Yσ(n))=(y1,...,yn))P((Y1,...,Yn)=(y1,...,yn))=P((Yσ(1),...,Yσ(n))=(y1,...,yn))P((Y_1, ..., Y_n)=(y_1, ..., y_n))= …

1
Bayesianische Optimierung für nicht-Gaußsches Rauschen
Eine Black-Box-Funktion , die punktweise unter Berücksichtigung des Gaußschen Rauschens ausgewertet wird, dh kann mithilfe der Bayes'schen Optimierung minimiert werden, wobei ein Gaußscher Prozess als verrauschtes Funktionsmodell verwendet wird.f: R.n→ R.f::R.n→R.f: \mathbb{R}^n \rightarrow \mathbb{R}f( x ) + N.( μ ( x ) , σ(x )2)f(x)+N.(μ(x),σ(x)2)f(x) + \mathcal{N}(\mu(x),\sigma(x)^2) Wie kann die …

1
Warum konvergiert MAP zu MLE?
In Kevin Murphys "Maschinelles Lernen: Eine probabilistische Perspektive", Kapitel 3.2, demonstriert der Autor das Bayes'sche Konzeptlernen an einem Beispiel namens "Zahlenspiel": Nachdem wir Proben aus , wollen wir Wählen Sie eine Hypothese die die Regel, die die Stichproben generiert hat, am besten beschreibt. Zum Beispiel "gerade Zahlen" oder "Primzahlen".{ 1 …

1
Probabilistische Interpretation von Dünnplatten-Glättungssplines
TLDR: Haben Dünnplatten-Regressionssplines eine probabilistische / Bayes'sche Interpretation? Bei gegebenen Eingabe-Ausgabe-Paaren ist ; Ich möchte eine Funktion wie folgt schätzen: wobei eine Kernfunktion ist und ein Merkmalsvektor der Größe . Die Koeffizienten und können durch Lösen von wobei Die Zeilen von \ Phi sind gegeben durch(xi,yi)(xi,yi)(x_i,y_i)i=1,...,ni=1,...,ni=1,...,nf(⋅)f(⋅)f(\cdot)f(x)≈u(x)=ϕ(xi)Tβ+∑i=1nαik(x,xi),f(x)≈u(x)=ϕ(xi)Tβ+∑i=1nαik(x,xi),\begin{equation}f(x)\approx u(x)=\phi(x_i)^T\beta +\sum_{i=1}^n \alpha_i k(x,x_i),\end{equation}k(⋅,⋅)k(⋅,⋅)k(\cdot,\cdot)ϕ(xi)ϕ(xi)\phi(x_i)m&lt;nm&lt;nm<nαiαi\alpha_iβiβi\beta_iminα∈Rn,β∈Rm1n∥Y−Φβ−Kα∥2Rn+λαTKα,minα∈Rn,β∈Rm1n‖Y−Φβ−Kα‖Rn2+λαTKα,\begin{equation} …

2
Merkmalsauswahl auf einem Bayes'schen hierarchischen verallgemeinerten linearen Modell
Ich möchte eine hierarchische GLM schätzen, aber mit Merkmalsauswahl, um zu bestimmen, welche Kovariaten auf Bevölkerungsebene relevant sind, um sie einzubeziehen. Angenommen, ich habe GGG Gruppen mit NNN Beobachtungen und KKK möglichen Kovariaten. Das heißt, ich habe eine Entwurfsmatrix von Kovariaten , Ergebnissen . Die Koeffizienten für diese Kovariaten sind …



2
Bayesianische nichtparametrische Antwort auf tiefes Lernen?
So wie ich es verstehe, führen tiefe neuronale Netze "Repräsentationslernen" durch, indem sie Merkmale zusammenfügen. Dies ermöglicht das Lernen sehr hochdimensionaler Strukturen in den Merkmalen. Natürlich handelt es sich um ein parametrisches Modell mit einer festen Anzahl von Parametern, daher besteht die übliche Einschränkung, dass die Komplexität des Modells möglicherweise …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.