Gelegentlich erfordern die Umstände Folgendes:
from keras.preprocessing.text import Tokenizer
tokenizer = Tokenizer(num_words=my_max)
Dann singen wir immer dieses Mantra:
tokenizer.fit_on_texts(text)
sequences = tokenizer.texts_to_sequences(text)
Obwohl ich (mehr oder weniger) verstehe, was der Gesamteffekt ist, kann ich nicht herausfinden, was jeder einzeln tut, unabhängig davon, wie viel Forschung ich mache (einschließlich natürlich der Dokumentation). Ich glaube nicht, dass ich jemals einen ohne den anderen gesehen habe.
Was macht jeder? Gibt es Umstände, unter denen Sie eines ohne das andere verwenden würden? Wenn nicht, warum werden sie nicht einfach zu etwas kombiniert wie:
sequences = tokenizer.fit_on_texts_to_sequences(text)
Entschuldigung, wenn mir etwas Offensichtliches fehlt, aber ich bin ziemlich neu darin.