Als «scikit-learn» getaggte Fragen

Eine Bibliothek für maschinelles Lernen für Python. Verwenden Sie dieses Tag für alle themenbezogenen Fragen, bei denen (a) Scikit-Learn entweder als kritischer Teil der Frage oder als erwartete Antwort verwendet wird und (b) nicht nur die Verwendung von Scikit-Learn betrifft.

2
Unterschied zwischen der Auswahl von Merkmalen basierend auf „F-Regression“ und basierend auf
Wird beim Vergleichen von Features F-regressiondasselbe verwendet wie beim Korrelieren von Features mit der Beschriftung und beim Beobachten des Werts?R2R2R^2 Ich habe oft gesehen, dass meine Kollegen F regressionin ihrer Pipeline für maschinelles Lernen eine für die Featureauswahl verwenden sklearn: sklearn.feature_selection.SelectKBest(score_func=sklearn.feature_selection.f_regression...)` Einige sagen mir bitte - warum gibt es die …

2
Ist die Entscheidungsschwelle ein Hyperparameter in der logistischen Regression?
Die vorhergesagten Klassen aus der (binären) logistischen Regression werden unter Verwendung eines Schwellenwerts für die Wahrscheinlichkeiten der Klassenmitgliedschaft bestimmt, die vom Modell generiert werden. Soweit ich weiß, wird standardmäßig 0,5 verwendet. Das Variieren des Schwellenwerts ändert jedoch die vorhergesagten Klassifizierungen. Bedeutet dies, dass die Schwelle ein Hyperparameter ist? Wenn ja, …

2
Unterschied zwischen Statistikmodell OLS und linearer Skikit-Regression
Ich habe eine Frage zu zwei verschiedenen Methoden aus verschiedenen Bibliotheken, die scheinbar den gleichen Job machen. Ich versuche, ein lineares Regressionsmodell zu erstellen. Hier ist der Code, den ich mit der Statistikmodellbibliothek mit OLS verwende: X_train, X_test, y_train, y_test = cross_validation.train_test_split(x, y, test_size=0.3, random_state=1) x_train = sm.add_constant(X_train) model = …

2
Verwenden von BIC zum Schätzen der Anzahl von k in KMEANS
Ich versuche derzeit, den BIC für meinen Spielzeugdatensatz (ofc iris (:)) zu berechnen. Ich möchte die hier gezeigten Ergebnisse reproduzieren (Abb. 5). Dieses Papier ist auch meine Quelle für die BIC-Formeln. Ich habe 2 Probleme damit: Notation: nichnichn_i = Anzahl der Elemente in Clusterichichi CichCichC_i = Mittelkoordinaten des Clustersichichi xjxjx_j …

5
Wie führt man eine Imputation von Werten in einer sehr großen Anzahl von Datenpunkten durch?
Ich habe einen sehr großen Datensatz und es fehlen ungefähr 5% zufällige Werte. Diese Variablen sind miteinander korreliert. Der folgende Beispiel-R-Datensatz ist nur ein Spielzeugbeispiel mit Dummy-korrelierten Daten. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), ncol = 10000) colnames(xmat) <- paste ("M", 1:10000, sep …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 

1
Unterschied zwischen Scikit-Learn-Implementierungen von PCA und TruncatedSVD
Ich verstehe die Beziehung zwischen Hauptkomponentenanalyse und Singularwertzerlegung auf algebraischer / exakter Ebene. Meine Frage bezieht sich auf die Implementierung von Scikit-Learn . In der Dokumentation heißt es: " [TruncatedSVD] ist PCA sehr ähnlich, arbeitet jedoch direkt mit Stichprobenvektoren anstatt mit einer Kovarianzmatrix. " Dies würde den algebraischen Unterschied zwischen …
12 pca  scikit-learn  svd  scipy 

1
So beheben Sie die Nichtkonvergenz in LogisticRegressionCV
Ich verwende scikit-learn, um eine logistische Regression mit Kreuzvalidierung für einen Datensatz durchzuführen (ungefähr 14 Parameter mit> 7000 normalisierten Beobachtungen). Ich habe auch einen Zielklassifikator, der entweder den Wert 1 oder 0 hat. Das Problem, das ich habe, ist, dass ich unabhängig vom verwendeten Solver immer wieder Konvergenzwarnungen erhalte ... …

1
Interpretation der Scikit-Vorhersage_proba-Ausgabe
Ich arbeite mit der Scikit-Learn-Bibliothek in Python. Im folgenden Code prognostiziere ich die Wahrscheinlichkeit, weiß aber nicht, wie ich die Ausgabe lesen soll. Daten testen from sklearn.ensemble import RandomForestClassifier as RF from sklearn import cross_validation X = np.array([[5,5,5,5],[10,10,10,10],[1,1,1,1],[6,6,6,6],[13,13,13,13],[2,2,2,2]]) y = np.array([0,1,1,0,1,2]) Teilen Sie den Datensatz X_train, X_test, y_train, y_test = …

2
Möglich, GLM in Python / Scikit-Learn mit den Poisson-, Gamma- oder Tweedie-Verteilungen als Familie für die Fehlerverteilung zu bewerten?
Ich versuche, Python und Sklearn zu lernen, aber für meine Arbeit muss ich Regressionen ausführen, die Fehlerverteilungen aus den Familien Poisson, Gamma und insbesondere Tweedie verwenden. Ich sehe nichts in der Dokumentation darüber, aber sie befinden sich in mehreren Teilen der R-Distribution. Ich habe mich gefragt, ob jemand irgendwo Implementierungen …


1
Nystroem-Methode zur Kernel-Approximation
Ich habe über die Nyström-Methode für die Annäherung an Kernel mit niedrigem Rang gelesen. Diese Methode wird in scikit-learn [1] implementiert, um Datenproben auf eine niedrigrangige Näherung der Kernel-Feature-Mapping zu projizieren. Nach meinem besten Wissen erzeugt es bei gegebenem Trainingssatz und einer Kernelfunktion eine niedrigrangige Approximation der Kernelmatrix durch Anwenden …

1
Warum senkt eine große Auswahl an K meine Kreuzvalidierungsbewertung?
Beim Herumspielen mit dem Boston Housing Dataset und RandomForestRegressor(mit Standardparametern) beim Scikit-Lernen fiel mir etwas Seltsames auf: Der durchschnittliche Kreuzvalidierungswert nahm ab, als ich die Anzahl der Falten über 10 erhöhte. Meine Kreuzvalidierungsstrategie lautete wie folgt: cv_met = ShuffleSplit(n_splits=k, test_size=1/k) scores = cross_val_score(est, X, y, cv=cv_met) ... wo num_cvswar abwechslungsreich. …

1
Unterschied zwischen ElasticNet in Scikit-Learn Python und Glmnet in R.
Hat jemand versucht zu überprüfen, ob das Anpassen eines Elastic Net-Modells mit ElasticNetin scikit-learn in Python und glmnetin R an denselben Datensatz identische arithmetische Ergebnisse liefert? Ich habe mit vielen Kombinationen der Parameter experimentiert (da sich die beiden Funktionen in den Standardwerten unterscheiden, die sie an die Argumente übergeben) und …


1
Für welche Art von Merkmalsauswahl kann der Chi-Quadrat-Test verwendet werden?
Hier frage ich, was andere üblicherweise tun, um den Chi-Quadrat-Test für die Merkmalsauswahl für das Ergebnis beim überwachten Lernen zu verwenden. Wenn ich das richtig verstehe, testen sie die Unabhängigkeit zwischen jedem Merkmal und dem Ergebnis und vergleichen die p-Werte zwischen den Tests für jedes Merkmal? In http://en.wikipedia.org/wiki/Pearson%27s_chi-squared_test , Der …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.