Angenommen, ich möchte anhand eines Histogramms sehen, ob meine Daten exponentiell sind (dh nach rechts verschoben sind). Abhängig davon, wie ich die Daten gruppiere oder bin, kann es zu sehr unterschiedlichen Histogrammen kommen. Ein Satz von Histogrammen wird den Anschein erwecken, dass die Daten exponentiell sind. Ein anderer Satz wird …
Ich lese einen Artikel, in dem der Autor mehrere Variablen aufgrund der starken Korrelation mit anderen Variablen verwirft, bevor er PCA durchführt. Die Gesamtzahl der Variablen liegt bei 20. Gibt dies irgendwelche Vorteile? Es scheint mir ein Overhead zu sein, da PCA dies automatisch erledigen sollte.
Die von Friedman vorgeschlagene Gradientenbaumverstärkung verwendet Entscheidungsbäume als Basislerner. Ich frage mich, ob wir den Basisentscheidungsbaum so komplex wie möglich (ausgewachsen) oder einfacher gestalten sollen. Gibt es eine Erklärung für die Wahl? Random Forest ist eine weitere Ensemblemethode, bei der Entscheidungsbäume als Basislerner verwendet werden. Nach meinem Verständnis verwenden wir …
Ich arbeite an einem kleinen Projekt, das die Gesichter von Twitter-Nutzern über ihre Profilbilder einbezieht. Ein Problem, auf das ich gestoßen bin, ist, dass ein kleiner, aber bedeutender Prozentsatz der Twitter-Benutzer ein Bild von Justin Bieber als Profilbild verwendet, nachdem ich alle Bilder mit Ausnahme von klaren Porträtfotos herausgefiltert habe. …
Ich habe eine komische Frage. Angenommen, Sie haben eine kleine Stichprobe, bei der die abhängige Variable, die Sie mit einem einfachen linearen Modell analysieren möchten, stark verzerrt ist. Sie nehmen also an, dass nicht normalverteilt ist, da dies zu normalverteiltem . Wenn Sie jedoch den QQ-Normal-Plot berechnen, gibt es Hinweise …
Aus der Verteilungsdichtefunktion konnten wir einen Mittelwert (= 0) für die Cauchy-Verteilung ermitteln, wie in der folgenden Grafik dargestellt. Aber warum sagen wir, dass die Cauchy-Verteilung keinen Mittelwert hat?
Wenn Sie diese Frage beantworten, wie würden Sie jemandem die Kovarianz erklären, der nur den Mittelwert versteht? , die sich mit der Erklärung der Kovarianz für einen Laien befasst, hat in meinen Augen eine ähnliche Frage aufgeworfen. Wie würde man einer Statistik den Unterschied zwischen Kovarianz und Korrelation erklären ? …
Erst war Brexit , jetzt die US-Wahl. Viele Modellvorhersagen waren mit großem Abstand falsch, und gibt es hier Lehren zu ziehen? Noch gestern um 16 Uhr PST favorisierten die Wettmärkte Hillary 4 zu 1. Ich gehe davon aus, dass die Wettmärkte mit echtem Geld als Gesamtheit aller verfügbaren Vorhersagemodelle fungieren …
Wie funktioniert eine Support Vector Machine (SVM) und was unterscheidet sie von anderen linearen Klassifikatoren wie dem linearen Perceptron , der linearen Diskriminanzanalyse oder der logistischen Regression ? * (* Ich denke über die zugrunde liegenden Motivationen für den Algorithmus, Optimierungsstrategien, Generalisierungsfähigkeiten und Laufzeitkomplexität nach. )
Hier verweist @gung auf die Regel .632+. Eine schnelle Google-Suche liefert keine leicht verständliche Antwort darauf, was diese Regel bedeutet und für welchen Zweck sie verwendet wird. Würde jemand bitte die .632+ -Regel erläutern?
Für eine gegebene Datenmatrix (mit Variablen in Spalten und Datenpunkten in Zeilen) scheint eine wichtige Rolle in der Statistik zu spielen. Zum Beispiel ist es ein wichtiger Teil der analytischen Lösung von gewöhnlichen kleinsten Quadraten. Oder für PCA sind seine Eigenvektoren die Hauptkomponenten der Daten.A T AAAAATAATAA^TA Ich verstehe, wie …
Viele statistische Jobs erfordern Erfahrung mit umfangreichen Daten. Welche statistischen und rechnerischen Fähigkeiten wären für die Arbeit mit großen Datenmengen erforderlich? Wie wäre es beispielsweise mit der Erstellung von Regressionsmodellen bei einem Datensatz mit 10 Millionen Stichproben?
Dies ist eine allgemeine Frage, die hier indirekt mehrmals gestellt wurde, aber es fehlt eine einzige maßgebliche Antwort. Es wäre großartig, eine ausführliche Antwort auf diese Frage als Referenz zu haben. Die Genauigkeit , der Anteil der korrekten Klassifizierungen an allen Klassifizierungen, ist sehr einfach und sehr "intuitiv" zu messen, …
Ich mache gerade das Udacity Deep Learning Tutorial. In Lektion 3 sprechen sie über eine 1x1-Faltung. Diese 1x1-Faltung wird im Google Inception-Modul verwendet. Ich habe Probleme zu verstehen, was eine 1x1-Faltung ist. Ich habe auch diesen Beitrag von Yann Lecun gesehen. Könnte mir das bitte jemand erklären?
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.