Als «laplace-smoothing» getaggte Fragen

7
Warum sollte man sich in Naive Bayes mit Laplace-Glättung beschäftigen, wenn das Testset unbekannte Wörter enthält?
Ich habe heute über die Naive Bayes-Klassifikation gelesen. Ich las unter der Überschrift Parameterschätzung mit add 1 Glättung : Verweisen Sie mit ccc auf eine Klasse (z. B. Positiv oder Negativ) und mit www auf ein Token oder Wort. Der Maximum - Likelihood - Schätzer für P(w|c)P(w|c)P(w|c) ist count(w,c)count(c)=counts w …

3
Terminologie für den Bayes'schen posterioren Wahrscheinlichkeitsmittelwert mit einheitlichem Prior
Wenn p ∼p∼p \sim Uniform (0,1)(0,1)(0,1) und X∼X∼X \sim Bin (n,p)(n,p)(n, p) , ist der hintere Mittelwert von ppp durch X+1n+2X+1n+2\frac{X+1}{n+2} . Gibt es einen gebräuchlichen Namen für diesen Schätzer? Ich habe festgestellt, dass es viele Probleme von Menschen löst, und ich möchte Menschen auf eine Referenz verweisen können, konnte …

2
Laplace Glättung und Dirichlet vor
In dem Wikipedia-Artikel über Laplace-Glättung (oder additive Glättung) heißt es aus Bayes-Sicht: Dies entspricht dem erwarteten Wert der posterioren Verteilung unter Verwendung einer symmetrischen Dirichlet-Verteilung mit dem Parameter als Prior.αα\alpha Ich bin verwirrt darüber, wie das tatsächlich stimmt. Könnte mir jemand helfen zu verstehen, wie diese beiden Dinge gleichwertig sind? …

1
Welches Deep-Learning-Modell kann Kategorien klassifizieren, die sich nicht gegenseitig ausschließen?
Beispiele: Ich habe einen Satz in der Stellenbeschreibung: "Java Senior Engineer in UK". Ich möchte ein Deep-Learning-Modell verwenden, um es als zwei Kategorien vorherzusagen: English und IT jobs. Wenn ich ein traditionelles Klassifizierungsmodell verwende, kann es nur 1 Etikett mit softmaxFunktion auf der letzten Ebene vorhersagen . Somit kann ich …
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 

2
Berechnung der Emissionswahrscheinlichkeitswerte für das Hidden Markov Model (HMM)
Ich bin neu in HMM und lerne noch. Ich verwende derzeit HMM, um einen Teil der Sprache zu markieren. Um den Viterbi-Algorithmus zu implementieren, benötige ich Übergangswahrscheinlichkeiten ( ) und Emissionswahrscheinlichkeiten ( b_i (o) ).ai,jai,j a_{i,j} \newcommand{\Count}{\text{Count}}bi(o)bi(o) b_i(o) Ich generiere Werte für diese Wahrscheinlichkeiten mithilfe einer überwachten Lernmethode, bei der …
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.