Als «neural-networks» getaggte Fragen

Netzwerkstruktur inspiriert von vereinfachten Modellen biologischer Neuronen (Gehirnzellen). Neuronale Netze werden durch "überwachte und unbeaufsichtigte Techniken" zum "Lernen" trainiert und können verwendet werden, um Optimierungsprobleme, Approximationsprobleme, Klassifizierungsmuster und Kombinationen davon zu lösen.

2
Warum scheinen neuronale Netze mit Einschränkungen ihrer Topologie eine bessere Leistung zu erbringen?
Backprop-Netzwerke, die vollständig miteinander verbunden sind (mindestens Schicht für Schicht mit mehr als 2 verborgenen Schichten), sind universelle Lerner. Leider lernen sie oft nur langsam und neigen zu Überanpassung oder zu unangenehmen Verallgemeinerungen. Beim Herumalbern mit diesen Netzwerken habe ich beobachtet, dass das Beschneiden einiger Kanten (so dass deren Gewicht …


4
Was ist der Unterschied zwischen einem neuronalen Netzwerk, einem Deep Learning System und einem Deep Belief Network?
Was ist der Unterschied zwischen einem neuronalen Netzwerk, einem Deep Learning System und einem Deep Belief Network? Soweit ich mich recht erinnere, handelt es sich bei Ihrem neuronalen Grundnetz um eine Sache mit drei Schichten, und Deep Belief Systems wurde als übereinander gestapelte neuronale Netze beschrieben. Ich habe bis vor …

1
Effizientes Berechnen oder Approximieren der VC-Dimension eines neuronalen Netzwerks
Mein Ziel ist es, das folgende Problem zu lösen, das ich durch seine Eingabe und Ausgabe beschrieben habe: Eingang: Ein gerichteter azyklischer Graph mit Knoten, Quellen und Senke ( ).GGGmmmnnn111m > n ≥ 1m>n≥1m > n \geq 1 Ausgabe: Die VC-Dimension (oder eine Annäherung davon) für das neuronale Netzwerk mit …


2
Müssen neuronale Netze immer konvergieren?
Einführung Schritt eins Ich habe ein standardmäßiges neuronales Backpropegating-Netzwerk geschrieben und mich zum Testen für eine XOR-Zuordnung entschieden. Es ist ein 2-2-1-Netzwerk (mit Tanh-Aktivierungsfunktion) X1 M1 O1 X2 M2 B1 B2 Zu Testzwecken habe ich das obere mittlere Neuron (M1) manuell als UND-Gatter und das untere Neuron (M2) als ODER-Gatter …




4
Entwicklung künstlicher neuronaler Netze zur Lösung von NP-Problemen
Ich habe kürzlich einen wirklich interessanten Blogeintrag aus dem Google Research Blog gelesen, in dem es um neuronale Netze geht. Grundsätzlich nutzen sie diese neuronalen Netze zur Lösung verschiedener Probleme wie der Bilderkennung. Sie verwenden genetische Algorithmen, um die Gewichte der Axone zu "entwickeln". Im Grunde ist meine Idee die …




1
Wie funktioniert der Momentum-Term für den Backpropagation-Algorithmus?
Sollte bei der Aktualisierung der Gewichte eines neuronalen Netzwerks unter Verwendung des Backpropagation-Algorithmus mit einem Impulsausdruck die Lernrate auch auf den Impulsausdruck angewendet werden? Die meisten Informationen, die ich über die Verwendung von Momentum finden konnte, sehen ungefähr so ​​aus: W.'ich= W.ich- α Δ W.ich+ μ Δ W.i - 1Wi′=Wi−αΔWi+μΔWi−1W_{i}' …

3
Wann sollte ich über k nächsten Nachbarn hinausgehen?
Für viele maschinelle Lernprojekte, die wir durchführen, beginnen wir mit dem Klassifikator k Nearest Neighbor. Dies ist ein idealer Startklassifikator, da wir normalerweise genügend Zeit haben, um alle Entfernungen zu berechnen, und die Anzahl der Parameter begrenzt ist (k, Entfernungsmetrik und Gewichtung). Dies hat jedoch häufig den Effekt, dass wir …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.