Normalerweise verwenden Sie einen beliebigen globalen Optimierer. Das Problem ist, dass die EI-Oberfläche stark multimodal und nicht verbunden ist. Die Optimierung dieser Erfassungsfunktion ist an sich kein triviales Problem.
Eine häufige Wahl, die ich in verschiedenen Veröffentlichungen gesehen habe, ist der DIRECT- Algorithmus. Manchmal habe ich CMA-ES gesehen , eine Methode auf dem neuesten Stand der nichtlinearen Optimierung. Nach meiner Erfahrung für andere Formen der Optimierung funktioniert MCS ( Multi-Level Coordinate Search ) in der Regel relativ gut. Eine Übersicht über derivatfreie globale Optimierer finden Sie hier :
- Rios und Sahinidis, "Derivatfreie Optimierung: eine Überprüfung der Algorithmen und ein Vergleich der Software-Implementierungen", Journal of Global Optimization (2013).
Übrigens ist die EI analytisch. Wenn Sie möchten, können Sie auch den Gradienten berechnen, um die Optimierung zu steuern. Dies ist jedoch nicht erforderlich. Eine effektive Technik ist es, einen globalen Optimierer lief ersten vielversprechende Lösungen zu finden und dann einen lokalen Optimierer führen Sie es zu verfeinern (zB ein Quasi-Newton - Verfahren wie BFGS, das ist fminunc in MATLAB oder fmincon wenn Sie Einschränkungen haben).
Wenn schließlich die Geschwindigkeit der Optimierung der Erfassungsfunktion ein Faktor ist (was nicht das "traditionelle" BO-Szenario ist), habe ich anständige Ergebnisse gefunden, indem ich mit einem lateinischen Hypercube-Design oder einem quasi zufälligen Sobol-Sequenzdesign begonnen und dann mit verfeinert habe ein paar Schritte eines lokalen Optimierers von den besten Punkten; Siehe auch @ user777 Kommentar. Da dies nicht das Standard-BO-Szenario ist, habe ich keine spezifische Referenz, die diese Methode tatsächlich verwendet.
Beispiele für Artikel, die sich auf DIRECT oder CMA-ES beziehen:
- R. Calandra, A. Seyfarth, J. Peters & MP Deisenroth (2015). Bayesianische Optimierung zum Lernen von Gängen unter Unsicherheit. Annalen der Mathematik und künstlichen Intelligenz, 1-19 ( Link ).
- N. Mahendran, Z. Wang, F. Hamze & ND Freitas (2012). Adaptives MCMC mit Bayes'scher Optimierung. In der Internationalen Konferenz über künstliche Intelligenz und Statistik (S. 751-760) ( Link ).
- T. Gunter, MA Osborne, R. Garnett, P. Hennig & SJ Roberts (2014). Inferenzstichprobe in probabilistischen Modellen mit schneller Bayes'scher Quadratur. In Fortschritte in neuronalen Informationsverarbeitungssystemen (S. 2789-2797) ( Link ).
Sie können einfach "Bayesianische Optimierung" + den gewünschten globalen Optimierungsalgorithmus googeln und finden eine Reihe von Artikeln. Außerdem finden Sie in so ziemlich jedem anderen Artikel über BO einen Satz wie :
[...] BO benötigt normalerweise in jeder Iteration einen zusätzlichen globalen Optimierer, um die Erfassungsfunktion zu optimieren. In der BO-Literatur ist es üblich, DIvided RECTangles (DIRECT) zu verwenden, um eine solche Aufgabe zu erfüllen. Andere globale Optimierungsalgorithmen wie CMA-ES könnten ebenfalls angewendet werden.