TL; DR :
Die erste Matrix repräsentiert den Eingabevektor in einem heißen Format
Die zweite Matrix repräsentiert die synaptischen Gewichte von den Neuronen der Eingangsschicht zu den Neuronen der verborgenen Schicht
Längere Version :
"Was genau ist die Feature-Matrix?"
Es scheint, dass Sie die Darstellung nicht richtig verstanden haben. Diese Matrix ist keine Merkmalsmatrix, sondern eine Gewichtsmatrix für das neuronale Netzwerk. Betrachten Sie das Bild unten. Beachten Sie insbesondere die linke obere Ecke, in der die Eingabeebenenmatrix mit der Gewichtsmatrix multipliziert wird.
Schauen Sie sich jetzt oben rechts an. Diese mit Weights Transpose dotierte Matrix-Multiplikation InputLayer ist nur eine praktische Möglichkeit, das neuronale Netzwerk oben rechts darzustellen.
Um Ihre Frage zu beantworten, ist die Gleichung, die Sie veröffentlicht haben, nur die mathematische Darstellung für das neuronale Netzwerk, das im Word2Vec-Algorithmus verwendet wird.
Der erste Teil [0 0 0 1 0 ... 0] repräsentiert das Eingabewort als einen heißen Vektor und die andere Matrix repräsentiert das Gewicht für die Verbindung jedes der Neuronen der Eingangsschicht mit den Neuronen der verborgenen Schicht.
Während Word2Vec trainiert, werden diese Gewichte zurückpropogiert und geändert, um Wörter als Vektoren besser darzustellen.
Sobald das Training abgeschlossen ist, verwenden Sie nur diese Gewichtsmatrix, nehmen [0 0 1 0 0 ... 0] für "Hund" und multiplizieren es mit der verbesserten Gewichtsmatrix, um die Vektordarstellung von "Hund" in einer Dimension = zu erhalten keine versteckten Schichtneuronen.
In dem von Ihnen dargestellten Diagramm beträgt die Anzahl der Neuronen mit versteckter Schicht 3
Die rechte Seite ist also im Grunde der Wortvektor.
Bildnachweis: http://www.datasciencecentral.com/profiles/blogs/matrix-multiplication-in-neural-networks