Referenzen zur numerischen Optimierung für Statistiker


9

Ich suche nach einer soliden Referenz (oder Referenzen) zu numerischen Optimierungstechniken, die sich an Statistiker richten, dh diese Methoden würden auf einige Standard-Inferenzprobleme angewendet (z. B. MAP / MLE in gängigen Modellen). Dinge wie Gradientenabstieg (gerade und stochastisch), EM und seine Ausgründungen / Verallgemeinerungen, simuliertes Tempern usw.

Ich hoffe, dass es einige praktische Hinweise zur Implementierung gibt (so oft fehlen Papiere). Es muss nicht vollständig explizit sein, sollte aber zumindest eine solide Bibliographie enthalten.

Bei einigen flüchtigen Suchen wurden einige Texte gefunden: Numerische Analyse für Statistiker von Ken Lange und Numerische Methoden der Statistik von John Monahan. Bewertungen von jedem scheinen gemischt (und spärlich). Von den beiden deutet eine Durchsicht des Inhaltsverzeichnisses darauf hin, dass die 2. Ausgabe von Langes Buch dem am nächsten kommt, wonach ich suche.


Antworten:


5

James Gentles Computational Statistics (2009).

James Gentles Matrixalgebra: Theorie, Berechnungen und Anwendungen in der Statistik (2007) , mehr gegen Ende des Buches, der Anfang ist auch großartig, aber es ist nicht genau das, wonach Sie suchen.

Christopher M. Bishops Mustererkennung (2006).

Hastie et al. Die Elemente des statistischen Lernens: Data Mining, Inferenz und Vorhersage (2009).

Suchen Sie etwas so Niedriges wie einen Text, der eine Frage beantwortet wie: "Warum ist es effizienter, Matrizen und höherdimensionale Arrays als 1-D-Array zu speichern, und wie kann ich sie im üblichen M indizieren?" (0, 1, 3, ...) Weg? " oder so etwas wie "Welche gängigen Techniken werden verwendet, um Standardalgorithmen wie Gradientenabstieg, EM usw. zu optimieren?"?

Die meisten Texte zum maschinellen Lernen enthalten ausführliche Diskussionen zu den gesuchten Themen.


Die zweite (was sind einige gängige Techniken ...). Die meisten Texte präsentieren ein Modell und beschreiben dann, wie Inferenz gemacht wird. Ich suche nach einer Art Umkehrung, bei der der Fokus auf Möglichkeiten liegt, ein Modell anzupassen und sie dann in Anwendungen zu vergleichen, wenn dies sinnvoll ist. Es gibt einige dieser Bücher für MCMC, in denen sie verschiedene Sampler vergleichen und beschreiben, wo sie nützlich sind und einige der Fallstricke (z. B. Gamerman & Lopes).
JMS

Vielen Dank auch für die bisherigen Referenzen. Das Buch von Hastie et al. Ist eigentlich ziemlich nah. Es ist schon eine Weile her, seit ich es von der Stange hatte; danke für die Aufforderung :)
JMS


3

Optimierung , von Kenneth Lange (Springer, 2004), rezensiert in JASA von Russell Steele. Es ist ein gutes Lehrbuch mit Gentles Matrix Algebra für einen Einführungskurs auf Matrix Analysis und Optimierung, wie die von Jan de Leeuw (Kursen / 202B).


@chi Das Buch sieht fantastisch aus! Obwohl ich dem Rezensenten zustimme, dass es einige auffällige Abwesenheiten gibt (simuliertes Tempern und die verschiedenen stochastischen EM-Aromen). Etwas seltsam, da es in ihrer Statistikserie ist, aber c'est la vie
JMS

Kennen Sie auch Harvilles Matrixalgebra-Buch? Ich wäre gespannt, wie es mit Gentles verglichen wird. Ich finde Harville eine schöne Referenz, aber sehr dicht. Nur aus dem Inhaltsverzeichnis von Gentles Buch gefällt mir, dass der gesamte Teil 2 "ausgewählten Anwendungen" gewidmet ist
JMS

@ JMS Nein. Ich habe nur Gentles Lehrbuch. (Da ich mathematische Lehrbücher im Allgemeinen nur mäßig verwende, mit Ausnahme desjenigen, das ich für die multivariate Datenanalyse als sehr praktisch empfunden habe.) Teil 2 befasst sich mit der Anwendung (Abschnitt 9) und Teil 3 mit Softwareproblemen. Die Homepage ist mason.gmu.edu/~jgentle/books/matbk
chl

Ja, wenn man es genauer betrachtet, scheint es mehr von der angewandten Seite zu haben. Harvilles Buch ist sehr theoremsicher, konzentriert sich jedoch auf Ergebnisse, die für die Statistik wichtig sind. Ich denke, sie ergänzen sich wahrscheinlich trotz des überlappenden Materials ziemlich gut.
JMS

1

Als Ergänzung zu diesen finden Sie möglicherweise Magnus, JR und H. Neudecker (2007). Matrixrechnung mit Anwendungen in Statistik und Ökonometrie, 3. Auflage nützlich, wenn auch schwer. Es entwickelt eine vollständige Behandlung von infinitesimalen Operationen mit Matrizen und wendet sie dann auf eine Reihe typischer statistischer Aufgaben wie Optimierung, MLE und nichtlineare kleinste Quadrate an. Wenn Sie am Ende des Tages die Rückwärtsstabilität Ihrer Matrixalgorithmen herausfinden, ist ein gutes Verständnis der Matrixrechnung unabdingbar. Ich persönlich habe die Werkzeuge der Matrixrechnung verwendet, um asymptotische Ergebnisse in räumlichen Statistiken und multivariaten parametrischen Modellen abzuleiten.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.