Als «regression» getaggte Fragen

Techniken zum Analysieren der Beziehung zwischen einer (oder mehreren) "abhängigen" Variablen und "unabhängigen" Variablen.

4
Neuronales Netz mit Sprungschichtverbindungen
Ich interessiere mich für die Regression mit neuronalen Netzen. Neuronale Netze mit Null versteckten Knoten und Sprungschichtverbindungen sind lineare Modelle. Was ist mit den gleichen neuronalen Netzen, aber mit versteckten Knoten? Ich frage mich, welche Rolle die Sprungschichtverbindungen spielen würden. Intuitiv würde ich sagen, dass das endgültige Modell eine Summe …

1
Gibt es einen Algorithmus, der Klassifikation und Regression kombiniert?
Ich frage mich, ob es einen Algorithmus gibt, der gleichzeitig Klassifizierung und Regression durchführen kann. Zum Beispiel möchte ich, dass der Algorithmus einen Klassifikator lernt und gleichzeitig in jedem Etikett ein kontinuierliches Ziel lernt. Daher hat es für jedes Trainingsbeispiel eine kategoriale Bezeichnung und einen kontinuierlichen Wert. Ich könnte zuerst …

5
Wie können Hauptkomponenten die Vorhersagekraft einer abhängigen Variablen beibehalten (oder sogar zu besseren Vorhersagen führen)?
Angenommen, ich führe eine Regression . Warum behält das Modell durch Auswahl der Top- Hauptkomponenten von seine Vorhersagekraft für ?Y.∼ XY.∼XY \sim XkkkXXXY.Y.Y Ich verstehe, dass aus Sicht der Dimensionsreduktion / Merkmalsauswahl, wenn die Eigenvektoren der Kovarianzmatrix von mit den höchsten Eigenwerten sind, die höchsten Hauptkomponenten sind mit maximalen Abweichungen. …

3
Interpretation der Gratregulierung in der Regression
Ich habe verschiedene Fragen bezüglich der First Penalty im Rahmen der kleinsten Fehlerquadrate: βridge=(λID+X′X)−1X′yβridge=(λID+X′X)−1X′y\beta_{ridge} = (\lambda I_D + X'X)^{-1}X'y 1) Der Ausdruck legt nahe, dass die Kovarianzmatrix von X zu einer Diagonalmatrix geschrumpft ist, was bedeutet, dass (unter der Annahme, dass die Variablen vor der Prozedur standardisiert wurden) die Korrelation …

2
Korrelation zwischen OLS-Schätzern für Achsenabschnitt und Steigung
In einem einfachen Regressionsmodell y=β0+β1x+ε,y=β0+β1x+ε, y = \beta_0 + \beta_1 x + \varepsilon, OLS Schätzer ββ^OLS0β^0OLS\hat{\beta}_0^{OLS} und ββ^OLS1β^1OLS\hat{\beta}_1^{OLS} korreliert sind. Die Formel für die Korrelation zwischen den beiden Schätzern lautet (wenn ich sie richtig abgeleitet habe): Corr(β^OLS0,β^OLS1)=−∑ni=1xin−−√∑ni=1x2i−−−−−−−√.Corr⁡(β^0OLS,β^1OLS)=−∑i=1nxin∑i=1nxi2. \operatorname{Corr}(\hat{\beta}_0^{OLS},\hat{\beta}_1^{OLS}) = \frac{-\sum_{i=1}^{n}x_i}{\sqrt{n} \sqrt{\sum_{i=1}^{n}x_i^2} }. Fragen: Was ist die intuitive Erklärung für das …

3
Wie man diese ungerade Verteilung modelliert (fast ein umgekehrtes J)
Die unten angezeigte abhängige Variable passt nicht zu einer mir bekannten Aktienverteilung. Die lineare Regression erzeugt nicht ganz normale, rechtsgerichtete Residuen, die sich auf ungerade Weise auf das vorhergesagte Y beziehen (2. Diagramm). Irgendwelche Vorschläge für Transformationen oder andere Wege, um die validesten Ergebnisse und die beste Vorhersagegenauigkeit zu erzielen? …


2
Vergleichen Sie Glättungssplines mit Löss zum Glätten?
Ich möchte die Vor- und Nachteile der Verwendung von Löss- oder Glättungssplines zum Glätten einiger Kurven besser verstehen. Eine andere Variante meiner Frage ist, ob es eine Möglichkeit gibt, einen Glättungsspline so zu konstruieren, dass die gleichen Ergebnisse wie bei der Verwendung von Löss erzielt werden. Jede Referenz oder Einsicht …

2
Intuition hinter der logistischen Regression
Vor kurzem habe ich angefangen, maschinelles Lernen zu studieren, aber ich habe die Intuition hinter der logistischen Regression nicht verstanden . Das Folgende sind die Fakten zur logistischen Regression, die ich verstehe. Als Grundlage für die Hypothese verwenden wir die Sigmoidfunktion . Ich verstehe, warum es eine richtige Wahl ist, …



2
Wie funktioniert die Unterstützung der Vektorregression intuitiv?
Alle Beispiele für SVMs beziehen sich auf die Klassifizierung. Ich verstehe nicht, wie eine SVM für die Regression (Support Vector Regressor) in der Regression verwendet werden könnte. Nach meinem Verständnis maximiert eine SVM den Abstand zwischen zwei Klassen, um die optimale Hyperebene zu finden. Wie würde dies möglicherweise bei einem …
25 regression  svm 

3
Warum werden beim maschinellen Lernen keine Leistungs- oder Protokolltransformationen gelehrt?
Maschinelles Lernen (ML) verwendet stark lineare und logistische Regressionstechniken. Es stützt sich auch auf Feature - Engineering - Techniken ( feature transform, kernelusw.). Warum wird in ML nichts über variable transformation(zB power transformation) erwähnt? (Ich höre zum Beispiel nie davon, Stamm- oder Protokolldaten für Features zu verwenden, normalerweise werden nur …

4
Algorithmen zur Erkennung von Zeitreihenanomalien
Ich verwende derzeit Twitter's AnomalyDetection in R: https://github.com/twitter/AnomalyDetection . Dieser Algorithmus ermöglicht die Erkennung von Zeitreihenanomalien für Daten mit Saisonalität. Frage: Gibt es ähnliche Algorithmen (die Kontrolle der Saisonalität spielt keine Rolle)? Ich versuche, so viele Zeitreihenalgorithmen wie möglich mit meinen Daten zu bewerten, damit ich das beste / Ensemble …

1
Geometrische Interpretation des multiplen Korrelationskoeffizienten
Ich interessiere mich für die geometrische Bedeutung der Mehrfachkorrelation RRR und des Bestimmungskoeffizienten R2R2R^2 in der Regression yi=β1+β2x2,i+⋯+βkxk,i+ϵiyi=β1+β2x2,i+⋯+βkxk,i+ϵiy_i = \beta_1 + \beta_2 x_{2,i} + \dots + \beta_k x_{k,i} + \epsilon_i oder für die Vektorschreibweise , y=Xβ+ϵy=Xβ+ϵ\mathbf{y} = \mathbf{X \beta} + \mathbf{\epsilon} Hier ist die Designmatrix XX\mathbf{X} hat nnn Zeilen und …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.