Als «word-embedding» getaggte Fragen

8
Was macht die Funktion tf.nn.embedding_lookup?
tf.nn.embedding_lookup(params, ids, partition_strategy='mod', name=None) Ich kann die Pflicht dieser Funktion nicht verstehen. Ist es wie eine Nachschlagetabelle? Was bedeutet, die Parameter zurückzugeben, die jeder ID entsprechen (in IDs)? skip-gramWenn wir zum Beispiel im Modell verwenden tf.nn.embedding_lookup(embeddings, train_inputs), findet es dann für jedes train_inputdie entsprechende Einbettung?
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.