Als «decision-trees» getaggte Fragen

Ein Entscheidungsbaum ist ein Tool zur Entscheidungsunterstützung, das ein baumartiges Diagramm oder Modell von Entscheidungen und deren möglichen Konsequenzen verwendet, einschließlich zufälliger Ereignisergebnisse, Ressourcenkosten und Nutzen. Dies ist eine Möglichkeit, einen Algorithmus anzuzeigen.




5
Sind Entscheidungsbaumalgorithmen linear oder nichtlinear?
Kürzlich wurde ein Freund von mir in einem Interview gefragt, ob Entscheidungsbaumalgorithmen lineare oder nichtlineare Algorithmen sind. Ich habe versucht, nach Antworten auf diese Frage zu suchen, konnte aber keine zufriedenstellende Erklärung finden. Kann jemand die Lösung dieser Frage beantworten und erklären? Was sind noch andere Beispiele für nichtlineare Algorithmen …

5
Vergrößere die seaborn Heatmap
Ich erstelle einen corr()DF aus einem Original-DF. Die corr()df herauskommen 70 X 70 , und es ist unmöglich , die Heatmap sichtbar zu machen ... sns.heatmap(df). Wenn ich versuche, das anzuzeigen corr = df.corr(), passt die Tabelle nicht auf den Bildschirm und ich kann alle Zusammenhänge sehen. Ist es eine …
16 visualization  pandas  plotting  machine-learning  neural-network  svm  decision-trees  svm  efficiency  python  linear-regression  machine-learning  nlp  topic-model  lda  named-entity-recognition  naive-bayes-classifier  association-rules  fuzzy-logic  kaggle  deep-learning  tensorflow  inception  classification  feature-selection  feature-engineering  machine-learning  scikit-learn  tensorflow  keras  encoding  nlp  text-mining  nlp  rnn  python  neural-network  feature-extraction  machine-learning  predictive-modeling  python  r  linear-regression  clustering  r  ggplot2  neural-network  neural-network  training  python  neural-network  deep-learning  rnn  predictive-modeling  databases  sql  programming  distribution  dataset  cross-validation  neural-network  deep-learning  rnn  machine-learning  machine-learning  python  deep-learning  data-mining  tensorflow  visualization  tools  sql  embeddings  orange  feature-extraction  unsupervised-learning  gan  machine-learning  python  data-mining  pandas  machine-learning  data-mining  bigdata  apache-spark  apache-hadoop  deep-learning  python  convnet  keras  aggregation  clustering  k-means  r  random-forest  decision-trees  reference-request  visualization  data  pandas  plotting  neural-network  keras  rnn  theano  deep-learning  tensorflow  inception  predictive-modeling  deep-learning  regression  sentiment-analysis  nlp  encoding  deep-learning  python  scikit-learn  lda  convnet  keras  predictive-modeling  regression  overfitting  regression  svm  prediction  machine-learning  similarity  word2vec  information-retrieval  word-embeddings  neural-network  deep-learning  rnn 

3
Wie kann man Wahrscheinlichkeiten in xgboost vorhersagen?
Die folgende Vorhersagefunktion gibt ebenfalls -ve-Werte an, sodass es sich nicht um Wahrscheinlichkeiten handeln kann. param <- list(max.depth = 5, eta = 0.01, objective="binary:logistic",subsample=0.9) bst <- xgboost(param, data = x_mat, label = y_mat,nround = 3000) pred_s <- predict(bst, x_mat_s2) Ich google & versuchte, pred_s <- predict(bst, x_mat_s2,type="response") aber es hat …

4
Entscheidungsbaum oder logistische Regression?
Ich arbeite an einem Klassifizierungsproblem. Ich habe einen Datensatz, der die gleiche Anzahl von kategorialen Variablen und kontinuierlichen Variablen enthält. Woher weiß ich, welche Technik ich anwenden soll? zwischen einem Entscheidungsbaum und einer logistischen Regression? Ist es richtig anzunehmen, dass die logistische Regression für kontinuierliche Variablen und der Entscheidungsbaum für …

1
Können Bäume mit Gefälle für jede Funktion geeignet sein?
Für neuronale Netze haben wir den universellen Approximationssatz, der besagt, dass neuronale Netze jede stetige Funktion auf einer kompakten Teilmenge von R n approximieren könnenRnRnR^n . Gibt es ein ähnliches Ergebnis für Bäume mit Farbverlauf? Es scheint vernünftig, da Sie weitere Zweige hinzufügen können, aber ich kann keine formelle Diskussion …


1
XGBRegressor vs. xgboost.train großer Geschwindigkeitsunterschied?
Wenn ich mein Modell mit dem folgenden Code trainiere: import xgboost as xg params = {'max_depth':3, 'min_child_weight':10, 'learning_rate':0.3, 'subsample':0.5, 'colsample_bytree':0.6, 'obj':'reg:linear', 'n_estimators':1000, 'eta':0.3} features = df[feature_columns] target = df[target_columns] dmatrix = xg.DMatrix(features.values, target.values, feature_names=features.columns.values) clf = xg.train(params, dmatrix) es endet in ungefähr 1 Minute. Wenn ich mein Modell mit der …


4
Entscheidungsbaum vs. KNN
In welchen Fällen ist es besser, einen Entscheidungsbaum und in anderen Fällen einen KNN zu verwenden? Warum in bestimmten Fällen einen von ihnen verwenden? Und der andere in verschiedenen Fällen? (Betrachtet man die Funktionalität, nicht den Algorithmus) Hat jemand Erklärungen oder Hinweise dazu?

3
Unausgeglichene Klassen - Wie kann man falsch negative Ergebnisse minimieren?
Ich habe einen Datensatz, der ein binäres Klassenattribut hat. Es gibt 623 Fälle mit Klasse +1 (krebspositiv) und 101.671 Fälle mit Klasse -1 (krebsnegativ). Ich habe verschiedene Algorithmen ausprobiert (Naive Bayes, Random Forest, AODE, C4.5) und alle haben inakzeptable falsch negative Verhältnisse. Random Forest hat die höchste Gesamtprognosegenauigkeit (99,5%) und …



Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.