Ich interessiere mich für die Regression mit neuronalen Netzen. Neuronale Netze mit Null versteckten Knoten und Sprungschichtverbindungen sind lineare Modelle. Was ist mit den gleichen neuronalen Netzen, aber mit versteckten Knoten? Ich frage mich, welche Rolle die Sprungschichtverbindungen spielen würden. Intuitiv würde ich sagen, dass das endgültige Modell eine Summe …
Ich frage mich, ob es einen Algorithmus gibt, der gleichzeitig Klassifizierung und Regression durchführen kann. Zum Beispiel möchte ich, dass der Algorithmus einen Klassifikator lernt und gleichzeitig in jedem Etikett ein kontinuierliches Ziel lernt. Daher hat es für jedes Trainingsbeispiel eine kategoriale Bezeichnung und einen kontinuierlichen Wert. Ich könnte zuerst …
Angenommen, ich führe eine Regression . Warum behält das Modell durch Auswahl der Top- Hauptkomponenten von seine Vorhersagekraft für ?Y.∼ XY.∼XY \sim XkkkXXXY.Y.Y Ich verstehe, dass aus Sicht der Dimensionsreduktion / Merkmalsauswahl, wenn die Eigenvektoren der Kovarianzmatrix von mit den höchsten Eigenwerten sind, die höchsten Hauptkomponenten sind mit maximalen Abweichungen. …
Ich habe verschiedene Fragen bezüglich der First Penalty im Rahmen der kleinsten Fehlerquadrate: βridge=(λID+X′X)−1X′yβridge=(λID+X′X)−1X′y\beta_{ridge} = (\lambda I_D + X'X)^{-1}X'y 1) Der Ausdruck legt nahe, dass die Kovarianzmatrix von X zu einer Diagonalmatrix geschrumpft ist, was bedeutet, dass (unter der Annahme, dass die Variablen vor der Prozedur standardisiert wurden) die Korrelation …
In einem einfachen Regressionsmodell y=β0+β1x+ε,y=β0+β1x+ε, y = \beta_0 + \beta_1 x + \varepsilon, OLS Schätzer ββ^OLS0β^0OLS\hat{\beta}_0^{OLS} und ββ^OLS1β^1OLS\hat{\beta}_1^{OLS} korreliert sind. Die Formel für die Korrelation zwischen den beiden Schätzern lautet (wenn ich sie richtig abgeleitet habe): Corr(β^OLS0,β^OLS1)=−∑ni=1xin−−√∑ni=1x2i−−−−−−−√.Corr(β^0OLS,β^1OLS)=−∑i=1nxin∑i=1nxi2. \operatorname{Corr}(\hat{\beta}_0^{OLS},\hat{\beta}_1^{OLS}) = \frac{-\sum_{i=1}^{n}x_i}{\sqrt{n} \sqrt{\sum_{i=1}^{n}x_i^2} }. Fragen: Was ist die intuitive Erklärung für das …
Die unten angezeigte abhängige Variable passt nicht zu einer mir bekannten Aktienverteilung. Die lineare Regression erzeugt nicht ganz normale, rechtsgerichtete Residuen, die sich auf ungerade Weise auf das vorhergesagte Y beziehen (2. Diagramm). Irgendwelche Vorschläge für Transformationen oder andere Wege, um die validesten Ergebnisse und die beste Vorhersagegenauigkeit zu erzielen? …
Nach meiner Frage an OLS frage ich mich: Welche diagnostischen Diagramme gibt es für die Quantilregression? (Und gibt es R Implementierung von ihnen?) Bei einer schnellen Google-Suche wurde bereits das Wurmdiagramm gefunden (von dem ich noch nie gehört habe), und ich würde mich über weitere Methoden freuen, die Sie kennen …
Ich möchte die Vor- und Nachteile der Verwendung von Löss- oder Glättungssplines zum Glätten einiger Kurven besser verstehen. Eine andere Variante meiner Frage ist, ob es eine Möglichkeit gibt, einen Glättungsspline so zu konstruieren, dass die gleichen Ergebnisse wie bei der Verwendung von Löss erzielt werden. Jede Referenz oder Einsicht …
Vor kurzem habe ich angefangen, maschinelles Lernen zu studieren, aber ich habe die Intuition hinter der logistischen Regression nicht verstanden . Das Folgende sind die Fakten zur logistischen Regression, die ich verstehe. Als Grundlage für die Hypothese verwenden wir die Sigmoidfunktion . Ich verstehe, warum es eine richtige Wahl ist, …
In einer Regression löscht der Interaktionsterm beide verwandten direkten Effekte aus. Beende ich die Interaktion oder melde ich das Ergebnis? Die Wechselwirkung war nicht Teil der ursprünglichen Hypothese.
Ich bin etwas verwirrt, wenn eine unabhängige Variable (auch Prädiktor oder Feature genannt) in einem statistischen Modell, z. B. das in linearer Regression , eine Zufallsvariable ist.XXXY=β0+β1XY=β0+β1XY=\beta_0+\beta_1 X
Alle Beispiele für SVMs beziehen sich auf die Klassifizierung. Ich verstehe nicht, wie eine SVM für die Regression (Support Vector Regressor) in der Regression verwendet werden könnte. Nach meinem Verständnis maximiert eine SVM den Abstand zwischen zwei Klassen, um die optimale Hyperebene zu finden. Wie würde dies möglicherweise bei einem …
Maschinelles Lernen (ML) verwendet stark lineare und logistische Regressionstechniken. Es stützt sich auch auf Feature - Engineering - Techniken ( feature transform, kernelusw.). Warum wird in ML nichts über variable transformation(zB power transformation) erwähnt? (Ich höre zum Beispiel nie davon, Stamm- oder Protokolldaten für Features zu verwenden, normalerweise werden nur …
Ich verwende derzeit Twitter's AnomalyDetection in R: https://github.com/twitter/AnomalyDetection . Dieser Algorithmus ermöglicht die Erkennung von Zeitreihenanomalien für Daten mit Saisonalität. Frage: Gibt es ähnliche Algorithmen (die Kontrolle der Saisonalität spielt keine Rolle)? Ich versuche, so viele Zeitreihenalgorithmen wie möglich mit meinen Daten zu bewerten, damit ich das beste / Ensemble …
Ich interessiere mich für die geometrische Bedeutung der Mehrfachkorrelation RRR und des Bestimmungskoeffizienten R2R2R^2 in der Regression yi=β1+β2x2,i+⋯+βkxk,i+ϵiyi=β1+β2x2,i+⋯+βkxk,i+ϵiy_i = \beta_1 + \beta_2 x_{2,i} + \dots + \beta_k x_{k,i} + \epsilon_i oder für die Vektorschreibweise , y=Xβ+ϵy=Xβ+ϵ\mathbf{y} = \mathbf{X \beta} + \mathbf{\epsilon} Hier ist die Designmatrix XX\mathbf{X} hat nnn Zeilen und …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.