Als «decision-trees» getaggte Fragen

Ein Entscheidungsbaum ist ein Tool zur Entscheidungsunterstützung, das ein baumartiges Diagramm oder Modell von Entscheidungen und deren möglichen Konsequenzen verwendet, einschließlich zufälliger Ereignisergebnisse, Ressourcenkosten und Nutzen. Dies ist eine Möglichkeit, einen Algorithmus anzuzeigen.


2
Entspricht max_depth in scikit dem Beschneiden von Entscheidungsbäumen?
Ich habe den Klassifikator analysiert, der mithilfe eines Entscheidungsbaums erstellt wurde. Im Entscheidungsbaum von scikit gibt es einen Optimierungsparameter namens max_depth . Entspricht dies dem Beschneiden eines Entscheidungsbaums? Wenn nicht, wie könnte ich einen Entscheidungsbaum mit Scikit beschneiden? dt_ap = tree.DecisionTreeClassifier(random_state=1, max_depth=13) boosted_dt = AdaBoostClassifier(dt_ap, random_state=1) boosted_dt.fit(X_train, Y_train)

3
Beziehung zwischen Faltung in Mathematik und CNN
Ich habe die Erklärung der Faltung gelesen und verstehe sie bis zu einem gewissen Grad. Kann mir jemand helfen zu verstehen, wie diese Operation mit der Faltung in Faltungs-Neuronalen Netzen zusammenhängt? Ist eine filterähnliche Funktion, gdie Gewicht anwendet?
10 machine-learning  neural-network  deep-learning  cnn  convolution  machine-learning  ensemble-modeling  machine-learning  classification  data-mining  clustering  machine-learning  feature-selection  convnet  pandas  graphs  ipython  machine-learning  apache-spark  multiclass-classification  naive-bayes-classifier  multilabel-classification  machine-learning  data-mining  dataset  data-cleaning  data  machine-learning  data-mining  statistics  correlation  machine-learning  data-mining  dataset  data-cleaning  data  beginner  career  python  r  visualization  machine-learning  data-mining  nlp  stanford-nlp  dataset  linear-regression  time-series  correlation  anomaly-detection  ensemble-modeling  data-mining  machine-learning  python  data-mining  recommender-system  machine-learning  cross-validation  model-selection  scoring  prediction  sequential-pattern-mining  categorical-data  python  tensorflow  image-recognition  statistics  machine-learning  data-mining  predictive-modeling  data-cleaning  preprocessing  classification  deep-learning  tensorflow  machine-learning  algorithms  data  keras  categorical-data  reference-request  loss-function  classification  logistic-regression  apache-spark  prediction  naive-bayes-classifier  beginner  nlp  word2vec  vector-space-models  scikit-learn  decision-trees  data  programming 

3

2
Wann sollte man eine lineare Regression oder eine Entscheidungsbaum- oder eine zufällige Waldregression wählen? [geschlossen]
Geschlossen . Diese Frage muss fokussierter sein . Derzeit werden keine Antworten akzeptiert. Möchten Sie diese Frage verbessern? Aktualisieren Sie die Frage so, dass sie sich nur auf ein Problem konzentriert, indem Sie diesen Beitrag bearbeiten . Geschlossen vor 4 Jahren . Ich arbeite an einem Projekt und habe Schwierigkeiten …
10 machine-learning  algorithms  random-forest  linear-regression  decision-trees  machine-learning  predictive-modeling  forecast  r  clustering  similarity  data-mining  dataset  statistics  text-mining  text-mining  data-cleaning  data-wrangling  machine-learning  classification  algorithms  xgboost  data-mining  dataset  dataset  regression  graphs  svm  unbalanced-classes  cross-validation  optimization  hyperparameter  genetic-algorithms  visualization  predictive-modeling  correlation  machine-learning  predictive-modeling  apache-spark  statistics  normalization  apache-spark  map-reduce  r  correlation  confusion-matrix  r  data-cleaning  classification  terminology  dataset  image-classification  machine-learning  regression  apache-spark  machine-learning  data-mining  nlp  parsing  machine-learning  dimensionality-reduction  visualization  clustering  multiclass-classification  evaluation  unsupervised-learning  machine-learning  machine-learning  data-mining  supervised-learning  unsupervised-learning  machine-learning  data-mining  classification  statistics  predictive-modeling  data-mining  clustering  python  pandas  machine-learning  dataset  data-cleaning  data  bigdata  software-recommendation 

4
Interpretieren des Entscheidungsbaums im Kontext von Feature-Wichtigkeiten
Ich versuche zu verstehen, wie man den Entscheidungsprozess eines mit sklearn erstellten Entscheidungsbaum-Klassifizierungsmodells vollständig versteht. Die beiden Hauptaspekte, die ich betrachte, sind eine grafische Darstellung des Baums und die Liste der Funktionsbedeutungen. Was ich nicht verstehe, ist, wie die Merkmalsbedeutung im Kontext des Baums bestimmt wird. Hier ist zum Beispiel …


2
Informationsgewinn in R.
Ich habe Pakete gefunden, die zur Berechnung des "Informationsgewinns" zur Auswahl der Hauptattribute in C4.5 Decision Tree verwendet werden, und ich habe versucht, sie zur Berechnung des "Informationsgewinns" zu verwenden. Die Ergebnisse der Berechnung der einzelnen Pakete unterscheiden sich jedoch wie im folgenden Code. > IG.CORElearn <- attrEval(In_Occu ~ In_Temp+In_Humi+In_CO2+In_Illu+In_LP+Out_Temp+Out_Humi, …

1
Mindestanzahl von Bäumen für den Random Forest-Klassifikator
Ich suche nach einer theoretischen oder experimentellen Schätzung der Untergrenze für die Anzahl der Bäume in einem Random Forest-Klassifikator. Normalerweise teste ich verschiedene Kombinationen und wähle die aus, die (mithilfe der Kreuzvalidierung) das median beste Ergebnis liefert. Ich denke jedoch, dass es bei Beobachtungen und Merkmalen eine Untergrenze für die …

1
Generieren Sie Vorhersagen, die orthogonal (nicht korreliert) zu einer bestimmten Variablen sind
Ich habe eine XMatrix, eine yVariable und eine andere Variable ORTHO_VAR. Ich muss die yVariable vorhersagen , wobei Xdie Vorhersagen aus diesem Modell orthogonal sein müssen, ORTHO_VARwährend sie so korreliert ywie möglich sind. Ich würde es vorziehen, wenn die Vorhersagen mit einer nicht parametrischen Methode wie erzeugt werden, xgboost.XGBRegressoraber ich …
8 correlation  machine-learning  dataset  logistic-regression  prediction  linear-regression  prediction  dummy-variables  neural-network  image-classification  python  k-nn  python  neural-network  neural-network  deep-learning  keras  tensorflow  image-classification  tensorflow  reinforcement-learning  policy-gradients  machine-learning  decision-trees  neural-network  overfitting  data-analysis  metric  python  scikit-learn  distance  scipy  machine-learning  python  scikit-learn  decision-trees  logistic-regression  keras  image-classification  implementation  machine-learning  python  scikit-learn  random-forest  decision-trees  machine-learning  feature-selection  feature-engineering  word2vec  word-embeddings  natural-language-process  scikit-learn  time-series  clustering  k-means  python  cross-validation  pyspark  statistics  cross-validation  multiclass-classification  evaluation  machine-learning  nlp  machine-translation  neural-network  deep-learning  keras  tensorflow  image-classification  machine-learning  python  similarity  distance  lstm  text  named-entity-recognition  machine-learning  keras  optimization  gan  learning-rate  neural-network  data-mining  dataset  databases  books  neural-network  rnn 

1
Wie können kontinuierliche Daten in Entscheidungsbäumen (besser) diskretisiert werden?
Standardentscheidungsbaumalgorithmen wie ID3 und C4.5 haben einen Brute-Force-Ansatz zur Auswahl des Schnittpunkts in einem kontinuierlichen Feature. Jeder einzelne Wert wird als möglicher Schnittpunkt geprüft. (Mit getestet meine ich, dass zB der Informationsgewinn bei jedem möglichen Wert berechnet wird.) Mit vielen fortlaufenden Funktionen und vielen Daten (daher viele Werte für jede …

1
Wie kann die Form der Eingabe-Features festgelegt werden, wenn jede Datendatei unterschiedlich lang ist?
Um Hilfe zu verstehen mich die Vorteile und Nachteile der decision trees, KNN, Neural Networks, Ich wollte einen einfachen Klassifizierer , dass stuft in 2 Klassen (bauen Bird Soundund Non-Bird Sound) mit allen oben 3 Methoden. Also habe ich einen Sound-Datensatz von kaggle heruntergeladen und pysoundfile als Modul zum Lesen …



2
Wie interpretiere ich einen Entscheidungsbaum richtig?
Ich versuche herauszufinden, ob ich einen online gefundenen Entscheidungsbaum richtig interpretiere. Die abhängige Variable dieses Entscheidungsbaums ist die Bonität, die zwei Klassen hat, schlecht oder gut. Die Wurzel dieses Baums enthält alle 2464 Beobachtungen in diesem Datensatz. Das einflussreichste Attribut zur Bestimmung der Klassifizierung einer guten oder schlechten Bonität ist …
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.