Als «neural-networks» getaggte Fragen

Künstliche neuronale Netze (ANNs) sind eine breite Klasse von Rechenmodellen, die lose auf biologischen neuronalen Netzen basieren. Sie umfassen Feedforward-NNs (einschließlich "tiefer" NNs), Faltungs-NNs, wiederkehrende NNs usw.


1
Warum verwenden Menschen keine tieferen RBFs oder RBFs in Kombination mit MLP?
Bei der Betrachtung der Neuronalen Netze mit radialer Basisfunktion ist mir aufgefallen, dass immer nur die Verwendung einer verborgenen Schicht empfohlen wird, während bei neuronalen Netzen mit mehrschichtigen Perzeptronen mehr Schichten als besser angesehen werden. Angesichts der Tatsache, dass RBF-Netzwerke mit der Version der Rückübertragung trainiert werden können, gibt es …

2
Was sind die Vorteile der Verwendung eines Bayes'schen neuronalen Netzwerks?
Kürzlich las ich einige Artikel über das Bayesianische Neuronale Netz (BNN) [Neal, 1992] , [Neal, 2012] , in denen eine Wahrscheinlichkeitsrelation zwischen der Eingabe und der Ausgabe in einem Neuronalen Netz angegeben ist. Das Trainieren eines solchen neuronalen Netzwerks erfolgt durch MCMC, was sich von dem herkömmlichen Backpropagation-Algorithmus unterscheidet. Meine …


5
Wie führt man eine Imputation von Werten in einer sehr großen Anzahl von Datenpunkten durch?
Ich habe einen sehr großen Datensatz und es fehlen ungefähr 5% zufällige Werte. Diese Variablen sind miteinander korreliert. Der folgende Beispiel-R-Datensatz ist nur ein Spielzeugbeispiel mit Dummy-korrelierten Daten. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), ncol = 10000) colnames(xmat) <- paste ("M", 1:10000, sep …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 

2
Wie wende ich neuronale Netze bei Problemen mit der Mehrfachmarkenklassifizierung an?
Beschreibung: Die Problemdomäne sei die Dokumentklassifikation, wenn eine Menge von Merkmalsvektoren existiert, die jeweils zu einer oder mehreren Klassen gehören. Beispielsweise doc_1könnte ein Dokument zu gehörenSports und EnglishKategorien gehören. Frage: Was wäre die Bezeichnung für einen Merkmalsvektor, wenn Sie das neuronale Netz für die Klassifizierung verwenden? Wäre es ein Vektor, …

2
Anwenden von maschinellem Lernen für die DDoS-Filterung
In Stanfords Maschinellem Lernkurs erwähnte Andrew Ng die Anwendung von ML in der IT. Einige Zeit später, als ich DDoS von mittlerer Größe (ca. 20.000 Bots) auf unserer Site bekam, entschied ich mich, mit einem einfachen Neural Network-Klassifikator dagegen anzukämpfen. Ich habe dieses Python-Skript in ungefähr 30 Minuten geschrieben: https://github.com/SaveTheRbtz/junk/tree/master/neural_networks_vs_ddos …

2
Warum ist eine 0-1-Verlustfunktion nicht umsetzbar?
In Ian Goodfellows Deep Learning- Buch steht das geschrieben Manchmal ist die Verlustfunktion, die uns tatsächlich am Herzen liegt (z. B. Klassifizierungsfehler), nicht effizient zu optimieren. Beispielsweise ist eine genaue Minimierung des erwarteten 0-1-Verlusts selbst für einen linearen Klassifizierer normalerweise nicht möglich (exponentiell in der Eingabedimension). In solchen Situationen optimiert …


3
Motivierende Sigmoid-Ausgabeeinheiten in neuronalen Netzen, beginnend mit nicht normalisierten logarithmischen Wahrscheinlichkeiten, linear in
Hintergrund: Ich studiere Kapitel 6 von Deep Learning von Ian Goodfellow und Yoshua Bengio und Aaron Courville. In Abschnitt 6.2.2.2 (Seiten 182 von 183, die hier eingesehen werden können ) wird die Verwendung von Sigmoid zur Ausgabe von P(y=1|x)P(y=1|x)P(y=1|x) motiviert. Um einen Teil des Materials zusammenzufassen, lassen sie z=wTh+bz=wTh+bz = …


4
Sind Upsampling und Transponierungsfaltung in CNN gleich?
Sowohl die Begriffe "Upsampling" als auch "Transponierungsfaltung" werden verwendet, wenn Sie "Entfaltung" durchführen (<- kein guter Begriff, aber lassen Sie mich ihn hier verwenden). Ursprünglich dachte ich, dass sie dasselbe bedeuten, aber es scheint mir, dass sie sich unterscheiden, nachdem ich diese Artikel gelesen habe. kann jemand bitte klarstellen? Transponieren …

1
Was genau ist ein Residual Learning-Block im Kontext von Deep Residual Networks in Deep Learning?
Ich las die Arbeit Deep Residual Learning for Image Recognition und hatte Schwierigkeiten, mit 100% iger Sicherheit zu verstehen, was ein Restblock rechnerisch bedeutet. Beim Lesen ihrer Zeitung haben sie Abbildung 2: Dies zeigt, was ein Restblock sein soll. Ist die Berechnung eines Restblocks einfach dieselbe wie: y =σ( W.2σ( …

2
Unterschiedliche Definitionen der Kreuzentropieverlustfunktion
Ich habe mit dem Neuralnetworksanddeeplearning dot com Tutorial angefangen, etwas über neuronale Netze zu lernen. Insbesondere im 3. Kapitel gibt es einen Abschnitt über die Kreuzentropiefunktion und definiert den Kreuzentropieverlust als: C.= - 1n∑x∑j( yjlneinL.j+ ( 1 -yj)ln( 1 -aL.j) )C.=- -1n∑x∑j(yjln⁡einjL.+(1- -yj)ln⁡(1- -einjL.))C = -\frac{1}{n} \sum\limits_x \sum\limits_j (y_j \ln …


Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.