Nur diese Klarstellung hinzufügen, damit jeder, der so viel nach unten scrollt, es zumindest richtig machen kann, da es so viele falsche Antworten gibt, die positiv bewertet wurden.
Dianshengs Antwort und JakeJs Antwort machen es richtig.
Eine neue Antwort von Shital Shah ist eine noch bessere und vollständigere Antwort.
Ja, logit
als mathematische Funktion in der Statistik, aber die logit
im Zusammenhang mit neuronalen Netzen verwendete ist anders. Statistisch logit
macht hier nicht einmal Sinn.
Ich konnte nirgendwo eine formale Definition finden, logit
bedeutet aber im Grunde:
Die rohen Vorhersagen, die aus der letzten Schicht des neuronalen Netzwerks kommen.
1. Dies ist genau der Tensor, auf den Sie die argmax
Funktion anwenden , um die vorhergesagte Klasse zu erhalten.
2. Dies ist genau der Tensor, den Sie in die softmax
Funktion einspeisen, um die Wahrscheinlichkeiten für die vorhergesagten Klassen zu erhalten.
Auch aus einem Tutorial auf der offiziellen Tensorflow-Website:
Logits Layer
Die letzte Schicht in unserem neuronalen Netzwerk ist die Protokollschicht, die die Rohwerte für unsere Vorhersagen zurückgibt. Wir erstellen eine dichte Schicht mit 10 Neuronen (eine für jede Zielklasse 0–9) mit linearer Aktivierung (Standardeinstellung):
logits = tf.layers.dense(inputs=dropout, units=10)
Wenn Sie immer noch verwirrt sind, ist die Situation wie folgt:
raw_predictions = neural_net(input_layer)
predicted_class_index_by_raw = argmax(raw_predictions)
probabilities = softmax(raw_predictions)
predicted_class_index_by_prob = argmax(probabilities)
wo predicted_class_index_by_raw
und predicted_class_index_by_prob
wird gleich sein.
Ein anderer Name für raw_predictions
im obigen Code istlogit
.
Was das Warum betrifft logit
... Ich habe keine Ahnung. Es tut uns leid.
[Bearbeiten: In dieser Antwort finden Sie die historischen Gründe für den Begriff.]
Wissenswertes
Wenn Sie möchten, können Sie jedoch statistische Daten logit
auf probabilities
die softmax
Funktion anwenden .
Wenn die Wahrscheinlichkeit einer bestimmten Klasse ist p
,
dann ist die logarithmische Wahrscheinlichkeit dieser Klasse L = logit(p)
.
Außerdem kann die Wahrscheinlichkeit dieser Klasse p = sigmoid(L)
mithilfe der sigmoid
Funktion wiederhergestellt werden .
Nicht sehr nützlich, um Log-Quoten zu berechnen.