Als «machine-learning» getaggte Fragen

Algorithmen für maschinelles Lernen erstellen ein Modell der Trainingsdaten. Der Begriff "maschinelles Lernen" ist vage definiert; Es umfasst das, was auch als statistisches Lernen, Bestärkungslernen, unbeaufsichtigtes Lernen usw. bezeichnet wird. Fügen Sie immer einen spezifischeren Tag hinzu.

2
Ist Random Forest eine gute Option für die Klassifizierung unausgeglichener Daten? [geschlossen]
Geschlossen . Diese Frage muss fokussierter sein . Derzeit werden keine Antworten akzeptiert. Möchten Sie diese Frage verbessern? Aktualisieren Sie die Frage so, dass sie sich nur auf ein Problem konzentriert, indem Sie diesen Beitrag bearbeiten . Geschlossen vor 3 Jahren . Kann die zufällige Gesamtstruktur "als Algorithmus" trotz der …


2
Bonferroni Korrektur & maschinelles Lernen
In psychologischen Studien habe ich gelernt, dass wir die Bonferroni-Methode verwenden sollten, um das Signifikanzniveau anzupassen, wenn wir mehrere Hypothesen an einem einzigen Datensatz testen. Derzeit arbeite ich mit Methoden des maschinellen Lernens wie Support Vector Machines oder Random Forest zur Klassifizierung. Hier habe ich einen einzelnen Datensatz, der bei …

3
Wie wird der Generator in einem GAN trainiert?
Das Papier über GANs besagt, dass der Diskriminator den folgenden Gradienten zum Trainieren verwendet: ∇θd1m∑i = 1m[ logD ( x( i )) +log( 1 - D ( G ( z( i )) ) ) ]∇θd1m∑i=1m[log⁡D(x(i))+log⁡(1−D(G(z(i))))]\nabla _{\theta_d} \frac{1}{m}\sum^{m}_{i=1} [\log{D(x^{(i)})} + \log{(1-D(G(z^{(i)})))}] Die Werte werden abgetastet, durch den Generator geleitet, um Datenabtastwerte …

4
Matthews Korrelationskoeffizient mit Mehrfachklasse
Der Matthews-Korrelationskoeffizient ( MCCMCC\textrm{MCC} ) ist eine Messung zur Messung der Qualität einer binären Klassifikation ([Wikipedia] [1]). MCCMCC\textrm{MCC} Formulierung wird für die binäre Klassifizierung unter Verwendung von wahr-positiven ( T.P.TPTP ), falsch positiven ( F.P.FPFP ), falsch negativen ( F.N.FNFN ) und wahr-negativen ( T.N.TNTN ) Werten angegeben, wie nachstehend …

2
AIC-Formel in Einführung in das statistische Lernen
Ich bin ein wenig verwirrt über eine Formel, die in Hasties "Einführung in das statistische Lernen" vorgestellt wird. In Kapitel 6, Seite 212 (sechster Druck, hier verfügbar ) heißt es: A ichC.= R S.S.n σ^2+ 2 dnAIC=RSSnσ^2+2dnAIC = \frac{RSS}{n\hat\sigma^2} + \frac{2d}{n} Für lineare Modelle mit Gaußschem Rauschen ist die Anzahl …


5
Warum (und wann) muss man die Belohnungsfunktion aus Stichproben beim Verstärkungslernen lernen?
Beim verstärkten Lernen haben wir eine Belohnungsfunktion, die den Agenten darüber informiert, wie gut seine aktuellen Aktionen und Zustände sind. In einigen allgemeinen Einstellungen ist die Belohnungsfunktion eine Funktion von drei Variablen: Aktueller ZustandS.SS Aktuelle Aktion im aktuellen Zustandπ( s ) = aπ(s)=a\pi(s) = a Nächster ZustandS.'S′S' Es sieht also …

2
Vektorisierung des Kreuzentropieverlustes
Ich habe es mit einem Problem zu tun, das mit dem Finden des Gradienten der Kreuzentropieverlustfunktion für den Parameter θθ\theta wobei: CE(θ)=−∑iyi∗log(y^i)CE(θ)=−∑iyi∗log(y^i)CE(\theta) = -\sum\nolimits_{i}{y_i*log({\hat{y}_{i}})} Wobei y i = s o f t m ein x ( θ i ) und θ i ist ein Vektoreingang.y^i=softmax(θi)y^i=softmax(θi)\hat{y}_{i} = softmax(\theta_i)θiθi\theta_i Auch yyy ist …


2
Reproduzieren Sie das Projektionsdiagramm der linearen Diskriminanzanalyse
Ich habe Probleme mit Projektionspunkten in der linearen Diskriminanzanalyse (LDA). Viele Bücher über multivariate statistische Methoden veranschaulichen die Idee der LDA anhand der folgenden Abbildung. Die Problembeschreibung lautet wie folgt. Zuerst müssen wir die Entscheidungsgrenze zeichnen, eine senkrechte Linie hinzufügen und dann Projektionen von Datenpunkten darauf zeichnen. Ich frage mich, …

2
Wie bereite ich Interaktionen von kategorialen Variablen in Scikit-Learn vor?
Was ist der beste Weg, um Interaktionen mit kategorialen Merkmalen vorzubereiten, bevor Sie mit scikit-learn arbeiten? Mit statsmodelskönnte ich bequem im R-Stil sagen smf.ols(formula = 'depvar ~ C(var1)*C(var2)', data=df).fit()(gleich in Stata mit regress depvar i.var1##i.var2). Kann sklearn.preprocessing.PolynomialFeatures(in v0.15, derzeit dev) mit kategorialen Variablen verwendet werden?

2
Anhaltende kontrastive Divergenz für RBMs
Wenn wir den persistenten CD-Lernalgorithmus für eingeschränkte Bolzmann-Maschinen verwenden, starten wir unsere Gibbs-Abtastkette in der ersten Iteration an einem Datenpunkt, aber im Gegensatz zur normalen CD beginnen wir in den folgenden Iterationen nicht über unserer Kette. Stattdessen beginnen wir dort, wo die Gibbs-Abtastkette in der vorherigen Iteration endete. Beim normalen …

4
Bewertung eines Regressionsmodells
Für Klassifizierungsprobleme habe ich neuronale Netze verwendet und Fehler vom Typ I und II unter Verwendung der Verwirrungsmatrix und ihrer Maße gemäß dieser Ressource ( Spiegel ) gemessen , was ziemlich einfach ist. Wie würde man bei einem Schätzungsproblem die Modellleistung bewerten? Angenommen, es gibt keine Klassen und die Ausgabe …

2
Skalieren der Rückwärtsvariablen in HMM Baum-Welch
Ich versuche nur, den skalierten Baum-Welch-Algorithmus zu implementieren, und bin auf ein Problem gestoßen, bei dem meine Rückwärtsvariablen nach der Skalierung über dem Wert 1 liegen. Ist das normal? Schließlich sollten die Wahrscheinlichkeiten nicht über 1 liegen. Ich verwende den Skalierungsfaktor, den ich aus den Vorwärtsvariablen erhalten habe: ct=1/∑s∈Sαt(s)ct=1/∑s∈Sαt(s) c_t …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.