Ich habe irgendwo gelesen, dass wir ein Feature entfernen müssen, wenn es zu korreliert ist, da dies das Modell verschlechtern könnte. Es ist klar, dass korrelierte Features bedeuten, dass sie die gleichen Informationen enthalten. Daher ist es logisch, eines von ihnen zu entfernen. Aber ich kann nicht verstehen, warum dies …
Angenommen, ich erstelle eine NN für die Klassifizierung. Die letzte Schicht ist eine dichte Schicht mit Softmax-Aktivierung. Ich habe fünf verschiedene Klassen zu klassifizieren. Angenommen, für ein einzelnes Trainingsbeispiel true labelist das, [1 0 0 0 0]während die Vorhersagen sind [0.1 0.5 0.1 0.1 0.2]. Wie würde ich den Kreuzentropieverlust …
Ich bin immer noch über den Unterschied zwischen verwirrt Denseund TimeDistributedDensevon Kerasobwohl es schon einige ähnliche Fragen hier und hier . Die Leute diskutieren viel, aber keine gemeinsamen Schlussfolgerungen. Und obwohl @fchollet hier folgendes feststellte: TimeDistributedDenseDenseWendet auf jeden Zeitschritt eines 3D-Tensors dieselbe (vollständig verbundene) Operation an. Ich brauche noch eine …
Wenn ich "Dokument" sage, denke ich an Webseiten wie Wikipedia-Artikel und Nachrichten. Ich bevorzuge Antworten, die entweder lexikalische Entfernungsmetriken aus Vanille oder semantische Entfernungsmetriken nach dem neuesten Stand der Technik enthalten, wobei letztere stärker bevorzugt werden.
Ich habe ein Problem mit großen Datenmengen (z. B. 50 Millionen Zeilen und 200 Spalten). Das Dataset besteht aus ungefähr 100 numerischen Spalten und 100 kategorialen Spalten sowie einer Antwortspalte, die ein Binärklassenproblem darstellt. Die Kardinalität jeder der kategorialen Spalten beträgt weniger als 50. Ich möchte a priori wissen, ob …
Es scheint mir, dass die VVV Funktion leicht durch die QQQ Funktion ausgedrückt werden kann und daher die Funktion für mich überflüssig zu sein scheint. Allerdings lerne ich noch nicht viel, also habe ich wohl etwas falsch gemacht.VVV Definitionen Q- und V-Learning stehen im Kontext von Markov-Entscheidungsprozessen . Ein MDP …
Warum Softmax im Gegensatz zur Standardnormalisierung verwenden? Im Kommentarbereich der oberen Antwort auf diese Frage hat @Kilian Batzner zwei Fragen aufgeworfen, die mich ebenfalls sehr verwirren. Es scheint, dass niemand eine Erklärung abgesehen von numerischen Vorteilen gibt. Ich habe die Gründe für die Verwendung von Cross-Entropy Loss herausgefunden, aber wie …
Bei maschinellen Lernaufgaben ist es üblich, Daten zu mischen und zu normalisieren. Der Zweck der Normalisierung ist klar (für den gleichen Bereich von Merkmalswerten). Aber nachdem ich viel gekämpft hatte, fand ich keinen wertvollen Grund, Daten zu mischen. Ich habe diesen Beitrag hier gelesen und erörtert, wann wir Daten mischen …
Ich versuche, ein Steigungsverstärkungsmodell mit über 50.000 Beispielen und 100 numerischen Merkmalen zu trainieren. XGBClassifierBewältigt 500 Bäume innerhalb von 43 Sekunden auf meiner Maschine, während GradientBoostingClassifiernur 10 Bäume (!) in 1 Minute und 2 Sekunden bearbeitet werden :( Ich habe nicht versucht, 500 Bäume zu züchten, da dies Stunden dauern …
Ich habe ein Klassifizierungsproblem mit ungefähr 1000 positiven und 10000 negativen Proben im Trainingssatz. Dieser Datensatz ist also ziemlich unausgeglichen. Normaler Zufallswald versucht nur, alle Testproben als Mehrheitsklasse zu markieren. Hier finden Sie einige gute Antworten zu Unterabtastungen und gewichteten Zufallsforsten: Was bedeutet es, ein Tree Ensemble mit stark voreingenommenen …
Im Kontext des maschinellen Lernens habe ich gesehen, dass der Begriff " Grundwahrheit" häufig verwendet wird. Ich habe viel gesucht und folgende Definition in Wikipedia gefunden : Beim maschinellen Lernen bezieht sich der Begriff "Grundwahrheit" auf die Genauigkeit der Klassifizierung des Trainingssatzes für überwachte Lerntechniken. Dies wird in statistischen Modellen …
Wenn würde man verwenden , Random Forestüber , SVMund umgekehrt? Ich verstehe das cross-validationund der Modellvergleich ist ein wichtiger Aspekt bei der Auswahl eines Modells, aber hier möchte ich mehr über Faustregeln und Heuristiken der beiden Methoden erfahren. Kann jemand bitte die Feinheiten, Stärken und Schwächen der Klassifikatoren sowie die …
Beachten Sie, dass ich alles in R mache. Das Problem lautet wie folgt: Grundsätzlich habe ich eine Liste von Lebensläufen. Einige Kandidaten haben bereits Berufserfahrung und andere nicht. Das Ziel dabei ist: Ich möchte sie auf der Grundlage des Texts in ihren Lebensläufen in verschiedene Berufsbereiche einteilen. Ich bin besonders …
Daher konnte ich keine Literatur zu diesem Thema finden, aber es scheint sich zu lohnen, darüber nachzudenken: Was sind die Best Practices für Modellbildung und -optimierung, wenn neue Beobachtungen verfügbar sind? Gibt es eine Möglichkeit, den Zeitraum / die Häufigkeit des erneuten Trainings eines Modells zu bestimmen, bevor sich die …
Ich habe festgestellt , dass solche Begriffe wie Modell Hyper und Modellparameter haben , ohne vorherige Klärung austauschbar auf dem Netz verwendet. Ich denke, das ist falsch und muss erklärt werden. Betrachten Sie ein maschinelles Lernmodell, einen SVM / NN / NB-basierten Klassifikator oder einen Bilderkenner. Was sind die Hyperparameter …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.