Ich verstehe die Gründe für die Spaltennormalisierung, da dadurch Merkmale gleich gewichtet werden, auch wenn sie nicht auf derselben Skala gemessen werden. In der Literatur zum nächsten Nachbarn werden jedoch häufig sowohl Spalten als auch Zeilen normalisiert. Was ist die Zeilennormalisierung für / warum Zeilen normalisieren? Wie wirkt sich das …
Das mgcvPaket für Rhat zwei Funktionen zum Anpassen von Tensorproduktwechselwirkungen: te()und ti(). Ich verstehe die grundlegende Arbeitsteilung zwischen den beiden (Anpassen einer nichtlinearen Wechselwirkung vs. Zerlegen dieser Wechselwirkung in Haupteffekte und eine Wechselwirkung). Was ich nicht verstehe, ist warum te(x1, x2)und ti(x1) + ti(x2) + ti(x1, x2)kann (leicht) unterschiedliche Ergebnisse …
Es ist bekannt (z. B. auf dem Gebiet der Druckabtastung ), dass die Norm "sparsity-induzierend" ist, in dem Sinne, dass wenn wir die funktionale (für feste Matrix und Vektor ) minimieren für groß genug \ lambda> 0 , wir haben wahrscheinlich für viele Auswahlmöglichkeiten von A , \ vec {b} …
Dies ist nur ein Beispiel, auf das ich mehrmals gestoßen bin, daher habe ich keine Beispieldaten. Ausführen eines linearen Regressionsmodells in R: a.lm = lm(Y ~ x1 + x2) x1ist eine stetige Variable. x2ist kategorisch und hat drei Werte, z. B. "Niedrig", "Mittel" und "Hoch". Die von R gegebene Ausgabe …
Ich weiß, dass es mehr als zwei Arten der Normalisierung gibt. Zum Beispiel, 1- Transformieren von Daten mit einem Z-Score oder T-Score. Dies wird üblicherweise als Standardisierung bezeichnet. 2- Daten neu skalieren, um Werte zwischen 0 und 1 zu erhalten. Die Frage jetzt, ob ich normalisieren muss Welche Art der …
Ich bin mir bewusst, dass es gängige Praxis ist, die Merkmale für die Ridge- und Lasso-Regression zu standardisieren. Wäre es jedoch jemals praktischer, die Merkmale auf einer (0,1) -Skala als Alternative zur Z-Score-Standardisierung für diese Regressionsmethoden zu normalisieren?
Nach "Efficient Backprop" von LeCun et al. (1998) ist es empfehlenswert, alle Eingaben so zu normalisieren, dass sie um 0 zentriert sind und im Bereich der maximalen zweiten Ableitung liegen. So würden wir zum Beispiel [-0.5,0.5] für die "Tanh" -Funktion verwenden. Dies soll den Fortschritt der Rückausbreitung unterstützen, wenn der …
Wenn eine lineare Diskriminanzanalyse mit mehreren Klassen (oder ich lese manchmal auch eine Mehrfachdiskriminanzanalyse) zur Dimensionsreduktion (oder Transformation nach Dimensionsreduktion über PCA) verwendet wird, verstehe ich im Allgemeinen eine "Z-Score-Normalisierung" (oder Standardisierung) von Funktionen werden nicht benötigt, auch wenn sie in völlig unterschiedlichen Maßstäben gemessen werden, richtig? Da LDA einen …
Ich versuche ein lineares Regressionsmodell zu lernen. Ich habe jedoch einige Verwirrung in Bezug auf die Normalisierung der Daten. Ich habe die Merkmale / Prädiktoren auf den Mittelwert Null und die Einheitsvarianz normalisiert. Muss ich dasselbe für das Ziel tun? Wenn ja warum?
Ich verwende Dynamic Time Warping, um eine "Abfrage" - und eine "Vorlagen" -Kurve abzugleichen, und habe bisher vernünftigen Erfolg, aber ich habe einige grundlegende Fragen: Ich bewerte eine "Übereinstimmung", indem ich bewerte, ob das DTW-Ergebnis unter einem von mir heuristisch ermittelten Schwellenwert liegt. Ist dies der allgemeine Ansatz zur Bestimmung …
Ich arbeite mit einem großen Satz von Beschleunigungsmesserdaten, die mit mehreren Sensoren erfasst wurden, die von vielen Probanden getragen werden. Leider scheint hier niemand die technischen Spezifikationen der Geräte zu kennen, und ich glaube nicht, dass sie jemals neu kalibriert wurden. Ich habe nicht viele Informationen über die Geräte. Ich …
Die folgenden Transplantate stammen aus diesem Artikel . Ich bin ein Neuling im Bootstrap und versuche, das parametrische, semiparametrische und nichtparametrische Bootstrapping-Bootstrapping für ein lineares gemischtes Modell mit R bootPaket zu implementieren. R-Code Hier ist mein RCode: library(SASmixed) library(lme4) library(boot) fm1Cult <- lmer(drywt ~ Inoc + Cult + (1|Block) + …
Ich möchte eine Quadratzählungsanalyse für mehrere Punktprozesse (oder einen markierten Punktprozess) durchführen, um dann einige Techniken zur Reduzierung der Dimensionalität anzuwenden. Die Marken sind nicht identisch verteilt, dh einige Marken erscheinen ziemlich oft und andere sind ziemlich selten. Daher kann ich meinen 2D-Raum nicht einfach in ein reguläres Raster unterteilen, …
Ich habe mich gefragt, ob hier jemand den Unterschied zwischen dem Normalisierungsmodus l1, l2 und max im Modul sklearn.preprocessing.normalize () erklären kann. Nachdem ich die Dokumentation gelesen hatte, konnte ich den Unterschied nicht erkennen!
Meine Daten bestehen aus mehreren kontinuierlichen Messungen und einigen Dummy-Variablen, die die Jahre darstellen, in denen die Messungen durchgeführt wurden. Jetzt möchte ich ein neuronales Netzwerk mit den Daten lernen. Daher normalisiere ich zScore alle Variablen, einschließlich der Dummy-Variablen. Ich frage mich jedoch, ob dies ein vernünftiger Ansatz ist, da …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.