La norme est d'utiliser n'importe quel optimiseur global que vous aimez. Le problème est que la surface EI est hautement multimodale et déconnectée; l'optimisation de cette fonction d'acquisition est un problème non trivial en soi.
Un choix courant que j'ai vu dans divers articles est l' algorithme DIRECT ; j'ai parfois vu CMA-ES qui est une méthode de pointe en optimisation non linéaire. D'après mon expérience pour d'autres formes d'optimisation, MCS ( Multi-Level Coordinate Search ) a tendance à fonctionner relativement bien. Vous pouvez trouver un examen des optimiseurs mondiaux sans dérivés ici :
- Rios et Sahinidis, «Optimisation sans dérivé: une revue des algorithmes et comparaison des implémentations logicielles», Journal of Global Optimization (2013).
Soit dit en passant, l'IE est analytique, donc si vous le souhaitez, vous pouvez également calculer son gradient pour guider l'optimisation, mais ce n'est pas nécessaire. Une technique efficace consiste à exécuter d'abord un optimiseur global pour trouver des solutions prometteuses, puis à exécuter un optimiseur local pour l'affiner (par exemple, une méthode quasi-Newton telle que BFGS, c'est-à-dire fminunc dans MATLAB; ou fmincon si vous avez des contraintes).
Enfin, si la vitesse d'optimisation de la fonction d'acquisition est un facteur (qui n'est pas le scénario BO "traditionnel"), j'ai trouvé des résultats décents en commençant par un plan Latin Hypercube ou un plan de séquence Sobol quasi aléatoire, puis affiné avec quelques étapes d'un optimiseur local à partir des meilleurs points; voir aussi le commentaire @ user777. Puisque ce n'est pas le scénario BO standard, je n'ai pas de référence spécifique qui utilise réellement cette méthode.
Exemples d'articles faisant référence à DIRECT ou CMA-ES:
- Calandra, R., Seyfarth, A., Peters, J., et Deisenroth, MP (2015). Optimisation bayésienne pour l'apprentissage des allures sous incertitude. Annals of Mathematics and Artificial Intelligence, 1-19 ( lien ).
- Mahendran, N., Wang, Z., Hamze, F., et Freitas, ND (2012). MCMC adaptatif avec optimisation bayésienne. Dans International Conference on Artificial Intelligence and Statistics (pp. 751-760) ( lien ).
- Gunter, T., Osborne, MA, Garnett, R., Hennig, P., et Roberts, SJ (2014). Échantillonnage pour l'inférence dans les modèles probabilistes à quadrature bayésienne rapide. Dans Advances in neural information processing systems (pp. 2789-2797) ( lien ).
Vous pouvez simplement google "Optimisation bayésienne" + l'algorithme d'optimisation globale souhaité, et vous trouverez un tas d'articles. De plus, dans presque tous les autres articles sur BO, vous trouverez une phrase telle que :
[...] BO nécessite généralement un optimiseur global auxiliaire à chaque itération pour optimiser la fonction d'acquisition. Il est courant dans la littérature BO d'utiliser des RECTangles divisés (DIRECT) pour accomplir une telle tâche. D'autres algorithmes d'optimisation globale comme CMA-ES pourraient également être appliqués.