R - Interpretation des Diagramms neuronaler Netze


8

Ich weiß, dass es ähnliche Fragen zu stats.SE gibt, aber ich habe keine gefunden, die meine Anfrage erfüllt. Bitte, bevor Sie die Frage als Duplikat markieren, pingen Sie mich im Kommentar an.

Ich betreibe ein neuronales Netzwerk, das auf neuralnetder Vorhersage von SP500-Indexzeitreihen basiert, und möchte verstehen, wie ich die unten angegebene Darstellung interpretieren kann:

Geben Sie hier die Bildbeschreibung ein

Insbesondere interessiert mich, wie das Gewicht der verborgenen Schicht und das Eingabegewicht interpretiert werden. Könnte mir bitte jemand erklären, wie man diese Zahl interpretiert?

Jeder Hinweis wird geschätzt.


2
Hier ist ein interessanter Artikel, der sich auf Ihre Frage bezieht. labs.eeb.utoronto.ca/jackson/ecol.%20modelling%20ANN.pdf
MrMeritology

Vielen Dank für den Kommentar, @MrMeritology! Ich fand das wirklich nützlich!
Quantopik

Ich bin mir zwar sicher, dass Sie dieses (ziemlich einfache) neuronale Netzwerk verstehen werden, aber wenn die Interpretierbarkeit ein relativ großes Problem darstellt, sollten Sie wahrscheinlich überhaupt kein neuronales Netzwerk verwenden. Gibt es einen bestimmten Grund, warum Sie einen Algorithmus anderen Algorithmen vorgezogen haben?
David

Ja, @ David! Ich würde gerne mit dieser Art von Modell lernen. Ich habe sie nie in meinem Job benutzt und ich lerne das nur zum Spaß. Haben Sie eine Idee zur Interpretation der Handlung?
Quantopik

Ich brauche Hilfe bei der Interpretation einer ANN-Analyse. Kann jemand helfen?
helle Kalu

Antworten:


7

Wie David in den Kommentaren feststellt, möchten Sie, wenn Sie ein Modell interpretieren möchten, wahrscheinlich etwas anderes als neuronale Netze untersuchen. Das heißt, wenn Sie die Netzwerkdarstellung intuitiv verstehen möchten, ist es am besten, sie in Bezug auf Bilder zu betrachten (etwas, in dem neuronale Netzwerke sehr gut sind).

  1. Die am weitesten links stehenden Knoten (dh Eingabeknoten) sind Ihre Rohdatenvariablen.
  2. Die Pfeile in Schwarz (und die zugehörigen Zahlen) sind die Gewichte, die Sie sich vorstellen können, wie viel diese Variable zum nächsten Knoten beiträgt. Die blauen Linien sind die Bias-Gewichte. Den Zweck dieser Gewichte finden Sie in der hervorragenden Antwort hier .
  3. Die mittleren Knoten (dh alles zwischen den Eingabe- und Ausgabeknoten) sind Ihre versteckten Knoten. Hier hilft die Bildanalogie. Jeder dieser Knoten bildet eine Komponente, die das Netzwerk zu erkennen lernt. Zum Beispiel eine Nase, ein Mund oder ein Auge. Dies ist nicht leicht zu bestimmen und weitaus abstrakter, wenn Sie mit Nicht-Bilddaten arbeiten.
  4. Der Knoten ganz rechts (Ausgabeknoten) ist die endgültige Ausgabe Ihres neuronalen Netzwerks.

Beachten Sie, dass dies alles die Aktivierungsfunktion auslässt, die auch auf jeder Ebene des Netzwerks angewendet wird.


β

@Quantopic Ich denke, Sie beziehen sich auf die computeFunktion im neuralnetPaket. Die Quelle ist nicht besonders komplex, wenn Sie dies von Hand tun möchten. Im Wesentlichen wenden Sie die Gewichte und die Aktivierungsfunktion auf jeder Ebene auf das Endergebnis an.
Cdeterman
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.