Als «machine-learning» getaggte Fragen

Algorithmen für maschinelles Lernen erstellen ein Modell der Trainingsdaten. Der Begriff "maschinelles Lernen" ist vage definiert; Es umfasst das, was auch als statistisches Lernen, Bestärkungslernen, unbeaufsichtigtes Lernen usw. bezeichnet wird. Fügen Sie immer einen spezifischeren Tag hinzu.


1
Bayesianisches Netzwerk vs. Assoziationsregeln
Der Apriori-Algorithmus findet einige Implikationsregeln. Ähnliche Ergebnisse liefern Bayes'sche Netzwerke. Was ist der wesentliche Unterschied? Was sind die spezifischen Vor- und Nachteile? Bearbeiten: Der Apriori-Algorithmus generiert Zuordnungsregeln als eine Art Implikation, die auf dem folgenden Bild (aus diesem Dokument entnommen ) visuell überprüft werden können .

1
Warum ist die Abweichung für den OLS-Schätzer in Bezug auf die lineare Regression gleich Null?
Ich verstehe das Konzept des Bias-Varianz-Kompromisses. Eine nach meinem Verständnis basierende Verzerrung stellt den Fehler dar, weil ein einfacher Klassifikator (z. B. linear) verwendet wird, um eine komplexe nichtlineare Entscheidungsgrenze zu erfassen. Daher habe ich erwartet, dass der OLS-Schätzer eine hohe Verzerrung und eine geringe Varianz aufweist. Aber ich bin …

4
Kurse für maschinelles Lernen: Mathematik erklärt
Ich suche einen Kurs für maschinelles Lernen, der die Mathematik hinter Algorithmen vermittelt, anstatt nur zu lehren, wie man sie anwendet. Ich habe mir Udacity Into to Machine Learning und Andrew Ngs Kurs über Coursera angesehen, und beide scheinen mir zu zutreffend zu sein. Empfehlungen von Lehrbüchern wären ebenfalls sehr …

2
Warum werden in der binären Klassifikation des Gaußschen Prozesses Sigmoidfunktionen gegenüber Gaußschen Funktionen bevorzugt?
Ich studiere derzeit "Gaußsche Prozesse für maschinelles Lernen" und in Kapitel 3 heißt es, dass das hintere (Gleichung 3.10) und das latente Die Variable posterior (Gleichung 3.9) kann aufgrund der Sigmoidwahrscheinlichkeiten in (3.9) und der Sigmoidfunktion in (3.10) im Allgemeinen nicht analytisch gelöst werden ). Um zu verhindern, dass Personen …

3
Gefälle Abstieg von
Ich lese Why Momentum Really Works , einen Beitrag aus dem neuen Destillationsjournal. Ich werde die Hauptgleichungen umschreiben, die zu dem Teil führen, der mich verwirrt. Der Beitrag beschreibt die Intuition genauer. Der Gradientenabstiegsalgorithmus ist durch den folgenden iterativen Prozess gegeben: wobei der Wert der Iteration , die Lernrate und …

3
Schrittweise Erklärung der K-fachen Kreuzvalidierung mit Rastersuche zur Optimierung von Hyperparametern
Ich bin mir der Vorteile der k-fachen (und ausgelassenen) Kreuzvalidierung sowie der Vorteile der Aufteilung Ihres Trainingssatzes zur Erstellung eines dritten Holdout-Validierungssatzes bewusst, den Sie zur Bewertung verwenden Modellleistung basierend auf der Auswahl von Hyperparametern, sodass Sie diese optimieren und optimieren und die besten auswählen können, die schließlich am realen …

2
Vorausschauendes Wartungsmodell zur Identifizierung von Anzeichen eines Fehlers, bevor dieser auftritt
Situation Ich arbeite an einem Problem, bei dem ich Sensordaten verwende, um einen Maschinenausfall vorherzusagen, bevor der Fehler auftritt, und ich benötige einige Ratschläge zu den zu untersuchenden Methoden. Insbesondere möchte ich Hinweise auf einen bevorstehenden Fehler identifizieren, bevor der Fehler tatsächlich auftritt. Im Idealfall ist dies mit einer ausreichenden …

1
Warum werden Deep-Believe-Netzwerke (DBN) selten verwendet?
Ich habe dieses Buch über tiefes Lernen von Ian und Aron gelesen. In der Beschreibung von DBN heißt es, DBN sei in Ungnade gefallen und werde selten verwendet. Deep-Believe-Netzwerke haben gezeigt, dass Deep-Architekturen erfolgreich sein können, indem sie kernelisierte Support-Vektor-Maschinen im MNIST-Datensatz übertreffen (Hinton et al., 2006). Heutzutage sind Deep-Believe-Netzwerke …


2
Generieren eines hochdimensionalen Datensatzes, bei dem der nächste Nachbar bedeutungslos wird
In der Zeitung " Wann ist 'Nächster Nachbar' sinnvoll? " Lesen wir das: Wir zeigen, dass sich unter bestimmten allgemeinen Bedingungen (in Bezug auf Daten- und Abfrageverteilungen oder Arbeitsbelastung) mit zunehmender Dimensionalität die Entfernung zum nächsten Nachbarn der Entfernung zum entferntesten Nachbarn nähert. Mit anderen Worten, der Kontrast in Abständen …

1
Reduzierung der nichtlinearen Dimensionalität: geometrische / topologische Algorithmen im Vergleich zu Autoencodern
Soweit ich weiß, gibt es drei Hauptansätze zur Reduzierung der nichtlinearen Dimensionalität: Vielfältiges Lernen (geometrische / topologische Algorithmen wie ISOMAP, LLE, LTSA) Autoencoder Dinge, die nicht in die ersten beiden Kategorien passen (wahrscheinlichkeitsinspiriertes t-SNE, Kernel-PCA usw.) Was sind die Vor- und Nachteile der ersten beiden Ansätze? Kann man denken, dass …

1
Mathematische Begründung für die Verwendung wiederkehrender neuronaler Netze über Feed-Forward-Netze
Ich habe mich gefragt und versucht zu verstehen, ob es einen mathematischen Grund für die Überlegenheit von RNNs gegenüber Feed-Forward-Netzwerken beim Umgang mit sequentiellen Daten gibt. Zum Beispiel beim Modellieren von Zeitreihen, HMMs usw. Angenommen, die Länge der Sequenz ist fest, aber sehr groß. Intuitiv ist klar, dass RNNs die …


1
Sind „Kernel-Methoden“ und „Reproduzieren von Kernel-Hilbert-Räumen“ miteinander verbunden?
Sind "Kernel-Methoden" und "Reproduzieren von Kernel-Hilbert-Räumen" miteinander verbunden? Ist der "Kernel", der im Begriff "Kernel-Methoden" verwendet wird, derselbe (Typ von) "Kernel" wie der, der im Begriff "Reproduzieren des Kernel-Hilbert-Raums" verwendet wird? Beachten Sie, dass ich die Wikipedia-Seiten bereits auf die beiden Themen überprüft habe und auf der Seite keine Erwähnung …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.