Als «neural-networks» getaggte Fragen

Künstliche neuronale Netze (ANNs) sind eine breite Klasse von Rechenmodellen, die lose auf biologischen neuronalen Netzen basieren. Sie umfassen Feedforward-NNs (einschließlich "tiefer" NNs), Faltungs-NNs, wiederkehrende NNs usw.

2
Wie breiten sich Gradienten in einem nicht abgerollten wiederkehrenden neuronalen Netzwerk aus?
Ich versuche zu verstehen, wie rnns verwendet werden können, um Sequenzen anhand eines einfachen Beispiels vorherzusagen. Hier ist mein einfaches Netzwerk, bestehend aus einem Eingang, einem versteckten Neuron und einem Ausgang: Das versteckte Neuron ist die Sigmoidfunktion, und die Ausgabe wird als einfache lineare Ausgabe angesehen. Ich denke, das Netzwerk …

1
Genaue Definition von Maxout
Ich habe versucht herauszufinden, was genau es mit der Aktivierungsfunktion "Maxout" in neuronalen Netzen bedeutet. Es gibt diese Frage, dieses Papier und sogar das Deep Learning-Buch von Bengio et al. , außer mit nur ein paar Informationen und einem großen TODO daneben. Ich werde die hier beschriebene Notation zur Verdeutlichung …

2
Wie wird die Softmax-Einheit abgeleitet und was bedeutet dies?
Ich versuche zu verstehen, warum die Softmax-Funktion als solche definiert ist: ezjΣK.k = 1ezk= σ( z)ezjΣk=1Kezk=σ(z)\frac{e^{z_{j}}} {\Sigma^{K}_{k=1}{e^{z_{k}}}} = \sigma(z) Ich verstehe, wie dies die Daten normalisiert und richtig auf einen bestimmten Bereich (0, 1) abbildet, aber der Unterschied zwischen den Gewichtswahrscheinlichkeiten variiert eher exponentiell als linear. Gibt es einen Grund, …

3
Finden Sie die Verteilung und transformieren Sie sie in die Normalverteilung
Ich habe Daten, die beschreiben, wie oft ein Ereignis während einer Stunde stattfindet ("Anzahl pro Stunde", nph) und wie lange die Ereignisse dauern ("Dauer in Sekunden pro Stunde", dph). Dies sind die Originaldaten: nph <- c(2.50000000003638, 3.78947368414551, 1.51456310682008, 5.84686774940732, 4.58823529414907, 5.59999999993481, 5.06666666666667, 11.6470588233699, 1.99999999998209, NA, 4.46153846149851, 18, 1.05882352939726, 9.21739130425452, 27.8399999994814, …
8 normal-distribution  data-transformation  logistic  generalized-linear-model  ridge-regression  t-test  wilcoxon-signed-rank  paired-data  naive-bayes  distributions  logistic  goodness-of-fit  time-series  eviews  ecm  panel-data  reliability  psychometrics  validity  cronbachs-alpha  self-study  random-variable  expected-value  median  regression  self-study  multiple-regression  linear-model  forecasting  prediction-interval  normal-distribution  excel  bayesian  multivariate-analysis  modeling  predictive-models  canonical-correlation  rbm  time-series  machine-learning  neural-networks  fishers-exact  factorisation-theorem  svm  prediction  linear  reinforcement-learning  cdf  probability-inequalities  ecdf  time-series  kalman-filter  state-space-models  dynamic-regression  index-decomposition  sampling  stratification  cluster-sample  survey-sampling  distributions  maximum-likelihood  gamma-distribution 



2
Bayesianische regulierte NNs gegenüber klassischen NNs
Ich habe einige Forschungsartikel gesehen, die behaupten, dass den klassischen neuronalen Netzen normalerweise eine zufriedenstellende Generalisierungsfähigkeit fehlt, was normalerweise zu ungenauen Vorhersagen führt, und Bayes'sche regulierte ANNs (BRANNs) sind robuster als Standard-Back-Propagation-Netze und können die reduzieren oder eliminieren Notwendigkeit einer langen Kreuzvalidierung. Diese Artikel liefern jedoch keine angemessene Begründung / …

1
Vorhersage des Gewinners eines Fußballspiels nur anhand des Ergebnisses früherer Spiele zwischen den beiden Teams
Ich bin ein großer Fußballfan und auch an maschinellem Lernen interessiert. Als Projekt für meinen ML-Kurs versuche ich, ein Modell zu entwickeln, das die Gewinnchance für die Heimmannschaft unter Berücksichtigung der Namen der Heimmannschaft und der Auswärtsmannschaft vorhersagt. (Ich frage meinen Datensatz ab und erstelle dementsprechend Datenpunkte basierend auf früheren …


2
Interpretation der neuronalen Netzwerkausgabe in R?
Ich habe es geschafft, ein neuronales Netzwerk meiner Daten zu erstellen. Bei der Interpretation des R-Ausgangs bin ich mir aber nicht so sicher. Ich habe den folgenden Befehl verwendet, um ein neuronales Netzwerk zu erstellen: > net=nnet(formula = category~iplen+date_time, size=0,skip=T,lineout=T) # weights: 3 initial value 136242.000000 final value 136242.000000 converged …

1
Müssen Eingaben in ein neuronales Netzwerk in [-1,1] sein?
Ich möchte eine Wettervorhersage mit Neuronalen Netzen erstellen. Alle Beispiele, die ich gesehen habe, verwendeten nur Werte [-1,1] als Eingabe. Ist es auch möglich, größere Werte (wie Luftdruck, Gradkalkius der letzten Tage, ...) als Eingaben zu verwenden und eine Zahl als Ausgabe zu erhalten? Vielen Dank

1
Bei welchen Aufgaben übertrifft die Neuroevolution die grundlegende Anwendung neuronaler Netze oder genetischer Algorithmen?
In jüngster Zeit bestand ein Interesse daran , genetische Algorithmen und neuronale Netze zu einem allgemeinen Rahmen für die Neuroevolution zu kombinieren. Die Grundidee ist, dass Ihr genetischer Algorithmus die Parameter vieler neuronaler Netze weiterentwickelt, die dann zur Lösung Ihrer Aufgabe verwendet werden. Eine Art genetische Programmierung, aber anstatt einen …

3
Wiederkehrende neuronale Netze in R.
Ich habe ein wenig über die Verwendung neuronaler Netze zur Vorhersage von Zeitreihen gehört , insbesondere über wiederkehrende neuronale Netze . Ich habe mich gefragt, gibt es ein wiederkehrendes neuronales Netzwerkpaket für R? Ich kann anscheinend keinen auf CRAN finden . Das nächste, was mir gekommen ist, ist die nnetTs- …

2
k-facher Lebenslauf der Prognose finanzieller Zeitreihen - ist die Leistung beim letzten Falten relevanter?
Ich arbeite an einem ANN-basierten Prognosemodell für eine finanzielle Zeitreihe. Ich verwende eine 5-fache Kreuzvalidierung und die durchschnittliche Leistung ist so. Die Leistung in der letzten Falte (die Iteration, bei der das letzte Segment nicht trainiert und zur Validierung verwendet wird) ist besser als der Durchschnitt. Ist dies ein Zufall …

1
Höhere Überanpassung durch Datenerweiterung mit Rauschen?
Ich trainiere ein neuronales Netzwerk für die Audioklassifizierung. Ich habe es auf dem UrbanSound8K-Datensatz (Modell 1) trainiert und wollte dann bewerten, wie unterschiedliche Pegel des zusätzlichen Rauschens zu den Eingaben die Vorhersagegenauigkeit beeinflussen. Basisgenauigkeit Modell1 = 65% Wie erwartet führten höhere Geräuschpegel zu einer geringeren Genauigkeit. Dann entschied ich mich …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.