Ich bin daran interessiert, eine Funktion maximieren , wobei θ ∈ R p ist .
Das Problem ist, dass ich die analytische Form der Funktion oder ihrer Ableitungen nicht kenne. Das einzige , was ich tun kann , ist die Funktion punktweise zu bewerten, indem sie in einem Wert Aufstecken und eine verrauschten Schätzung erhalten f ( θ * ) an diesem Punkt. Wenn ich möchte, kann ich die Variabilität dieser Schätzungen verringern, muss aber steigende Rechenkosten zahlen.
Folgendes habe ich bisher versucht:
Stochastisch steilster Abstieg mit endlichen Unterschieden: Es kann funktionieren, erfordert jedoch viel Abstimmung (z. B. Verstärkungssequenz, Skalierungsfaktor) und ist oft sehr instabil.
Simuliertes Tempern: Es funktioniert und es ist zuverlässig, aber es erfordert viele Funktionsbewertungen, so dass ich es ziemlich langsam fand.
Daher bitte ich um Vorschläge / Ideen zu möglichen alternativen Optimierungsmethoden, die unter diesen Bedingungen funktionieren können. Ich halte das Problem so allgemein wie möglich, um Vorschläge aus anderen Forschungsbereichen als meinen anzuregen. Ich muss hinzufügen, dass ich sehr an einer Methode interessiert wäre, die mir eine Schätzung des Hessischen bei der Konvergenz geben könnte. Dies liegt daran, dass ich damit die Unsicherheit der Parameter abschätzen kann . Andernfalls muss ich endliche Differenzen um das Maximum verwenden, um eine Schätzung zu erhalten.