Je souhaite maximiser une fonction , où θ ∈ R p .
Le problème est que je ne connais pas la forme analytique de la fonction ou de ses dérivés. La seule chose que je peux faire est d'évaluer la fonction point sage, en branchant une valeur et obtenir une estimation de NOISY f ( θ * ) à ce moment - là. Si je veux, je peux diminuer la variabilité de ces estimations, mais je dois payer des coûts de calcul croissants.
Voici ce que j'ai essayé jusqu'à présent:
Descente la plus raide stochastique avec des différences finies: elle peut fonctionner mais elle nécessite beaucoup de réglages (ex. Séquence de gain, facteur d'échelle) et elle est souvent très instable.
Recuit simulé: cela fonctionne et il est fiable, mais il nécessite de nombreuses évaluations de fonctions, donc je l'ai trouvé assez lent.
Je demande donc des suggestions / idées sur une méthode d'optimisation alternative possible qui peut fonctionner dans ces conditions. Je garde le problème aussi général que possible afin d'encourager les suggestions de domaines de recherche différents du mien. Je dois ajouter que je serais très intéressé par une méthode qui pourrait me donner une estimation de la Hesse à la convergence. En effet, je peux l'utiliser pour estimer l'incertitude des paramètres . Sinon, je devrai utiliser des différences finies autour du maximum pour obtenir une estimation.