Ich versuche, ein zeitdiskretes Modell in R einzubauen, bin mir aber nicht sicher, wie ich das machen soll. Ich habe gelesen, dass Sie die abhängige Variable in verschiedenen Zeilen organisieren können, eine für jede glmZeitbeobachtung , und die Funktion mit einem Logit- oder Cloglog-Link verwenden können. In diesem Sinne, ich …
Ich versuche, die Gradientenabstiegsoptimierung in ML-Algorithmen (Machine Learning) zu verstehen. Ich verstehe , dass es eine Kostenfunktion-wo das Ziel ist , den Fehler zu minimieren . In einem Szenario, in dem die Gewichte optimiert werden, um den minimalen Fehler zu ergeben, und partielle Ableitungen verwendet werden, ändert sich in jedem …
Also versuche ich, mir neuronale Netze beizubringen (für Regressionsanwendungen, ohne Bilder von Katzen zu klassifizieren). Meine ersten Experimente waren das Trainieren eines Netzwerks zur Implementierung eines FIR-Filters und einer diskreten Fourier-Transformation (Training für "Vorher" - und "Nachher" -Signale), da dies beide lineare Operationen sind, die von einer einzelnen Schicht ohne …
Angenommen, wir machen ein Spielzeugbeispiel für einen anständigen Gradienten, bei dem eine quadratische Funktion unter Verwendung der festen Schrittgröße minimiert wird . ( )α = 0,03xT.A xxT.EINxx^TAxα = 0,03α=0,03\alpha=0.03A = [ 10 , 2 ; 2 , 3 ]EIN=[10,2;;2,3]]A=[10, 2; 2, 3] Wenn wir die Spur von in jeder Iteration …
Ich trainiere ein einfaches Faltungs-Neuronales Netzwerk für die Regression, wobei die Aufgabe darin besteht, die (x, y) Position einer Box in einem Bild vorherzusagen, z. Die Ausgabe des Netzwerks hat zwei Knoten, einen für x und einen für y. Der Rest des Netzwerks ist ein Standard-Faltungsnetzwerk. Der Verlust ist ein …
Angenommen, wir möchten einige Erwartungen berechnen: EYEX|Y[f(X,Y)]EYEX|Y[f(X,Y)]E_YE_{X|Y}[f(X,Y)] Angenommen, wir möchten dies mithilfe der Monte-Carlo-Simulation approximieren. EYEX|Y[f(X,Y)]≈1RS∑r=1R∑s=1Sf(xr,s,yr)EYEX|Y[f(X,Y)]≈1RS∑r=1R∑s=1Sf(xr,s,yr)E_YE_{X|Y}[f(X,Y)] \approx \frac1{RS}\sum_{r=1}^R\sum_{s=1}^Sf(x^{r,s},y^r) ABER nehmen wir an, es ist teuer, Proben aus beiden Verteilungen zu ziehen, so dass wir es uns nur leisten können, eine feste Zahl . KKK Wie sollen wir zuordnen ? Beispiele …
Ich dachte daran, Lasso mit Vanille-Subgradienten-Methoden zu lösen. Aber ich habe Leute gelesen, die vorschlagen, den proximalen Gradientenabstieg zu verwenden. Kann jemand hervorheben, warum für Lasso proximale GD anstelle von Vanille-Subgradienten-Methoden verwendet werden?
In meinem ökonometrischen Lehrbuch (Introductory Econometrics) über OLS schreibt der Autor: "SSR muss fallen, wenn eine weitere erklärende Variable hinzugefügt wird." Warum ist es?
Ich suche nach einem Paket, das mir hilft, einige quadratische Optimierungsprobleme zu lösen, und ich sehe, dass es mindestens ein halbes Dutzend verschiedene Pakete gibt. Laut dieser Seite: QP (Quadratic Programming, 90C20): cplexAPI , Kernlab , limSolve , LowRankQP , Quadprog , Rcplex , Rmosek Einige davon (Rmosek und cplexAPI) …
Wenn wir eine glmFunktion in R verwenden, wird standardmäßig die iterativ neu gewichtete Methode der kleinsten Quadrate (IWLS) verwendet, um die maximale Wahrscheinlichkeitsschätzung der Parameter zu ermitteln. Jetzt habe ich zwei Fragen. Garantieren IWLS-Schätzungen das globale Maximum der Wahrscheinlichkeitsfunktion? Basierend auf der letzten Folie in dieser Präsentation denke ich, dass …
Wie kann ich 95% -Konfidenzintervalle mithilfe der Profilerstellung für Parameter schätzen, die durch Maximieren einer Log-Likelihood-Funktion mithilfe von Optim in R geschätzt werden? Ich weiß, dass ich die Kovarianzmatrix durch Invertieren des Hessischen asymptotisch schätzen kann , aber ich bin besorgt, dass meine Daten nicht den Annahmen entsprechen, die für …
Dies ist eine eher allgemeine Frage (dh nicht unbedingt spezifisch für Statistiken), aber ich habe einen Trend in der maschinellen Lern- und statistischen Literatur festgestellt, bei dem Autoren den folgenden Ansatz bevorzugen: Ansatz 1 : Erhalten Sie eine Lösung für ein praktisches Problem, indem Sie eine Kostenfunktion formulieren, für die …
Ich suche nach einer soliden Referenz (oder Referenzen) zu numerischen Optimierungstechniken, die sich an Statistiker richten, dh diese Methoden würden auf einige Standard-Inferenzprobleme angewendet (z. B. MAP / MLE in gängigen Modellen). Dinge wie Gradientenabstieg (gerade und stochastisch), EM und seine Ausgründungen / Verallgemeinerungen, simuliertes Tempern usw. Ich hoffe, dass …
Ich habe also 16 Studien, in denen ich versuche, eine Person anhand eines biometrischen Merkmals mithilfe von Hamming Distance zu authentifizieren. Mein Schwellenwert ist auf 3,5 eingestellt. Meine Daten sind unten und nur Versuch 1 ist ein wahres Positiv: Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 …
Betrachten Sie eine Antwort y und Datenmatrix X . Angenommen, ich erstelle ein Modell des Formulars - y ~ g (X, )θθ\theta (g () könnte eine beliebige Funktion von X und )θθ\theta Zur Schätzung von θθ\theta Verwendung der Maximum Likelihood (ML) -Methode könnte ich entweder mit der bedingten ML (vorausgesetzt, …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.