Als «deep-learning» getaggte Fragen

Ein neues Gebiet der maschinellen Lernforschung, das sich mit den Technologien befasst, die zum Lernen hierarchischer Darstellungen von Daten verwendet werden, hauptsächlich mit tiefen neuronalen Netzen (dh Netzen mit zwei oder mehr verborgenen Schichten), aber auch mit einer Art probabilistischer grafischer Modelle.

4
Math PhD (Nonlinear Programming) wechselt zu Data Science?
Ich bin ein Mathe-Ph.D. Student, der daran interessiert ist, nach seinem Abschluss als Data Scientist in die Branche zu gehen. Ich werde kurz einige Hintergrundinformationen zu meiner Ausbildung geben, bevor ich meine Frage stelle, damit sie besser verstanden wird: Mathe-Kursarbeit: Dies geschah hauptsächlich in reiner Mathematik: Topologie, Funktionsanalyse usw., aber …

1
Was sind "VGG54" und "VGG22", die vom VGG19 CNN abgeleitet sind?
In der Arbeit Photo-Realistic Single Image Super-Resolution unter Verwendung eines generativen kontradiktorischen Netzwerks von Christian Ledig et al. Wird der Abstand zwischen Bildern (in der Verlustfunktion verwendet) aus Feature-Maps berechnet, die aus dem VGG19-Netzwerk extrahiert wurden. Die beiden im Artikel verwendeten werden (etwas verwirrend) VGG22 und VGG54 genannt. Was sind …

1
Warum verwendet die Rekonstruktion in Autoencodern dieselbe Aktivierungsfunktion wie die Vorwärtsaktivierung und nicht die umgekehrte?
Angenommen, Sie haben eine Eingabeebene mit n Neuronen und die erste verborgene Ebene hat Neuronen, typischerweise m &lt; n . Dann berechnen Sie die Aktivierung a j des j- ten Neurons in der verborgenen Schicht durchmmmm &lt; nm&lt;nm < neinjeinja_jjjj , wobei f eine Aktivierungsfunktion wie tanh oder sigmoid ist …

1
Grundlegendes zu Ausfall und Gefälle
Ich schaue mir an, wie man Dropout in einem tiefen neuronalen Netzwerk implementiert, und fand etwas, das nicht intuitiv ist. In der Vorwärtsphase fallen Dropout-Maskenaktivierungen mit einem zufälligen Tensor von 1s und 0s an, um das Netz zu zwingen, den Durchschnitt der Gewichte zu lernen. Dies hilft dem Netz, besser …



1
Batch-Normalisierung verstehen
In dem Artikel Batch-Normalisierung: Beschleunigen des tiefen Netzwerktrainings durch Reduzieren der internen Kovariatenverschiebung ( hier ) Bevor der Prozess der Batch-Normalisierung erläutert wird, wird versucht, die damit verbundenen Probleme zu erklären (ich verstehe nicht, was genau hier angesprochen wird) . Auszug aus Abschnitt 2, Abs. 2: Wir könnten in Betracht …

1
Faltungsnetzwerk zur Klassifizierung, äußerst lichtempfindlich
Ich habe ein Faltungsnetzwerk trainiert, um Bilder einer mechanischen Komponente als gut oder fehlerhaft zu klassifizieren. Obwohl die Testgenauigkeit hoch war, stellte ich fest, dass das Modell bei Bildern mit leicht unterschiedlicher Beleuchtung eine schlechte Leistung zeigte. Die Funktionen, die ich zu erkennen versuche, sind subtil, und die Beleuchtung scheint …

4
Reduzieren Faltungen Bilder?
Ich suche nach einer guten Erklärung dafür, wie Windungen beim Deep Learning funktionieren, wenn sie auf Mehrkanalbilder angewendet werden. Nehmen wir zum Beispiel an, ich habe ein 100 x 100 Pixel großes Bild mit drei Kanälen, RGB. Der Eingangstensor hätte dann die Abmessungen 100 x 100 x 3. Wenn ich …


1
Gibt es eine Domäne, in der Spiking Neural Networks andere Algorithmen übertreffen (Non-Spiking)?
Ich lese über Reservoir-Computing- Techniken wie Echo State Networks und Liquid State Machines . Beide Verfahren umfassen das Zuführen von Eingaben zu einer Population zufällig (oder nicht) verbundener Spike-Neuronen und einen relativ einfachen Auslesealgorithmus, der die Ausgabe erzeugt (z. B. lineare Regression). Die Neuronenpopulationsgewichte werden entweder festgelegt oder über eine …


1
Theano in der Deep-Learning-Forschung
Wie weit verbreitet ist Theano in der Deep-Learning-Forschung? Ist Theano ein guter Anfang, um die Implementierung von Algorithmen für maschinelles Lernen zu lernen? Wird es wirklich helfen, die Implementierung eines Feed-Forward-Netzwerks zu lernen? Implementieren Doktoranden während ihrer College-Tage mindestens einmal neuronale Netze oder andere Algorithmen? Hintergrund: Ich habe eine vernünftige …

1
Generieren Sie Vorhersagen, die orthogonal (nicht korreliert) zu einer bestimmten Variablen sind
Ich habe eine XMatrix, eine yVariable und eine andere Variable ORTHO_VAR. Ich muss die yVariable vorhersagen , wobei Xdie Vorhersagen aus diesem Modell orthogonal sein müssen, ORTHO_VARwährend sie so korreliert ywie möglich sind. Ich würde es vorziehen, wenn die Vorhersagen mit einer nicht parametrischen Methode wie erzeugt werden, xgboost.XGBRegressoraber ich …
8 correlation  machine-learning  dataset  logistic-regression  prediction  linear-regression  prediction  dummy-variables  neural-network  image-classification  python  k-nn  python  neural-network  neural-network  deep-learning  keras  tensorflow  image-classification  tensorflow  reinforcement-learning  policy-gradients  machine-learning  decision-trees  neural-network  overfitting  data-analysis  metric  python  scikit-learn  distance  scipy  machine-learning  python  scikit-learn  decision-trees  logistic-regression  keras  image-classification  implementation  machine-learning  python  scikit-learn  random-forest  decision-trees  machine-learning  feature-selection  feature-engineering  word2vec  word-embeddings  natural-language-process  scikit-learn  time-series  clustering  k-means  python  cross-validation  pyspark  statistics  cross-validation  multiclass-classification  evaluation  machine-learning  nlp  machine-translation  neural-network  deep-learning  keras  tensorflow  image-classification  machine-learning  python  similarity  distance  lstm  text  named-entity-recognition  machine-learning  keras  optimization  gan  learning-rate  neural-network  data-mining  dataset  databases  books  neural-network  rnn 


Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.