"Klassifikations- und Regressionsbäume". CART ist eine beliebte maschinelle Lerntechnik und bildet die Grundlage für Techniken wie zufällige Wälder und gängige Implementierungen von Maschinen zur Erhöhung des Gradienten.
Ich versuche zu verfolgen, wer die Datenstruktur und den Algorithmus des Entscheidungsbaums erfunden hat. Im Wikipedia-Eintrag zum Entscheidungsbaum-Lernen heißt es, dass "ID3 und CART ungefähr zur gleichen Zeit (zwischen 1970 und 1980) unabhängig voneinander erfunden wurden". ID3 wurde später vorgestellt in: Quinlan, JR 1986. Induktion von Entscheidungsbäumen. Mach. Lernen. 1, …
Ich führe mit SPSS eine Entscheidungsbaumklassifizierung für einen Datensatz mit etwa 20 Prädiktoren durch (kategorial mit wenigen Kategorien). CHAID (Chi-squared Automatic Interaction Detection) und CRT / CART (Classification And Regression Trees) geben mir verschiedene Bäume. Kann jemand die relativen Vorzüge von CHAID vs CRT erklären? Was bedeutet es, eine Methode …
Ich suche nach einer Alternative zu Klassifikationsbäumen, die eine bessere Vorhersagekraft bietet. Die Daten, mit denen ich mich befasse, haben Faktoren sowohl für die erklärenden als auch für die erklärenden Variablen. Ich erinnere mich, dass ich in diesem Zusammenhang auf zufällige Wälder und neuronale Netze gestoßen bin, obwohl ich sie …
Welche Methoden verwenden Entscheidungsbaum-Lernalgorithmen, um mit fehlenden Werten umzugehen? Füllen sie einfach den Slot mit einem Wert namens missing aus? Vielen Dank.
Ich studiere Klassifikations- und Regressionsbäume, und eine der Kennzahlen für den geteilten Standort ist der GINI-Score. Jetzt bin ich es gewohnt, den besten Split-Standort zu bestimmen, wenn das Protokoll des Wahrscheinlichkeitsverhältnisses der gleichen Daten zwischen zwei Verteilungen Null ist, was bedeutet, dass die Wahrscheinlichkeit einer Mitgliedschaft gleich wahrscheinlich ist. Meine …
Fast jedes Entscheidungsbaum-Beispiel, auf das ich gestoßen bin, ist zufällig ein Binärbaum. Ist das so ziemlich universell? Unterstützen die meisten Standardalgorithmen (C4.5, CART usw.) nur binäre Bäume? Soweit ich weiß, ist CHAID nicht auf binäre Bäume beschränkt, aber das scheint eine Ausnahme zu sein. Eine Zwei-Wege-Trennung, gefolgt von einer weiteren …
Nach der Durchführung der Hauptkomponentenanalyse (PCA) möchte ich einen neuen Vektor auf den PCA-Raum projizieren (dh seine Koordinaten im PCA-Koordinatensystem finden). Ich habe PCA in R-Sprache mit berechnet prcomp. Jetzt sollte ich meinen Vektor mit der PCA-Rotationsmatrix multiplizieren können. Sollen die Hauptkomponenten in dieser Matrix in Zeilen oder Spalten angeordnet …
Ich habe einen Datensatz, der aus 5 Merkmalen besteht: A, B, C, D, E. Sie sind alle numerische Werte. Anstatt ein dichtebasiertes Clustering durchzuführen, möchte ich die Daten auf eine entscheidungsbaumartige Weise gruppieren. Der Ansatz, den ich meine, ist ungefähr so: Der Algorithmus kann die Daten basierend auf Merkmal C …
Ich bin kein Experte für zufällige Gesamtstrukturen, aber ich verstehe klar, dass das Hauptproblem bei zufälligen Gesamtstrukturen die (zufällige) Baumgenerierung ist. Können Sie mir erklären, wie die Bäume entstehen? (dh was ist die verwendete Verteilung für die Baumerzeugung?) Danke im Voraus !
Entscheidungsstumpf ist ein Entscheidungsbaum mit nur einer Teilung. Es kann auch als stückweise Funktion geschrieben werden. Angenommen, ist ein Vektor und ist die erste Komponente von . Bei der Regressionseinstellung kann es sich um einen Entscheidungsstumpf handelnx 1 xxxxx1x1x_1xxx f( x ) = { 35x1≤ 2x1> 2f(x)={3x1≤25x1>2f(x)= \begin{cases} 3& x_1\leq …
Zufällige Wälder werden für die Regression verwendet. Soweit ich weiß, weisen sie jedoch jedem Blatt einen durchschnittlichen Zielwert zu. Da es in jedem Baum nur begrenzte Blätter gibt, gibt es nur bestimmte Werte, die das Ziel mit unserem Regressionsmodell erreichen kann. Ist es also nicht nur eine "diskrete" Regression (wie …
Ich suche nach Artikeln oder Texten, die vergleichen und diskutieren (entweder empirisch oder theoretisch): Boosting- und Entscheidungsbaum- Algorithmen wie Random Forests oder AdaBoost und GentleBoost werden auf Entscheidungsbäume angewendet. mit Deep Learning Methoden wie Restricted Boltzmann Machines , Hierarchical Temporal Memory , Convolutional Neural Networks , etc. Kennt jemand einen …
Was ist die VC-Dimension eines Entscheidungsbaums mit k Teilungen in zwei Dimensionen? Angenommen, das Modell ist CART und die einzigen zulässigen Teilungen verlaufen parallel zu den Achsen. Für eine Teilung können wir also 3 Punkte in einem Dreieck ordnen und dann für jede Beschriftung der Punkte eine perfekte Vorhersage erhalten …
Was ist die Definition von "Feature Space"? Wenn ich zum Beispiel über SVMs lese, lese ich über "Zuordnung zu Feature-Space". Wenn ich über CART lese, lese ich über "Partitionierung, um Raum zu kennzeichnen". Ich verstehe, was gerade im WARENKORB vor sich geht, aber ich denke, dass es eine Definition gibt, …
Random Forests (RFs) ist eine wettbewerbsfähige Datenmodellierungs- / Miningmethode. Ein RF-Modell hat eine Ausgabe - die Ausgabe- / Vorhersagevariable. Der naive Ansatz zur Modellierung mehrerer Ausgänge mit RFs besteht darin, für jede Ausgangsvariable einen RF zu erstellen. Wir haben also N unabhängige Modelle, und wenn es eine Korrelation zwischen Ausgabevariablen …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.