J'ai plusieurs problèmes d'optimisation globale non convexe difficiles à résoudre. Actuellement, j'utilise la boîte à outils Optimization de MATLAB (en particulier, fmincon()avec algorithm = 'sqp'), ce qui est assez efficace . Cependant, la majeure partie de mon code est en Python et j'aimerais également en faire l'optimisation. Existe-t-il un solutionneur …
Quelles considérations dois-je prendre lors du choix entre BFGS et gradient conjugué pour l'optimisation? La fonction que j'essaie d'adapter à ces variables sont des fonctions exponentielles; cependant, la fonction objective réelle implique l'intégration, entre autres choses, et est très coûteuse si cela aide du tout.
Je cherche à résoudre un problème d'optimisation contraint où je connais les limites de certaines variables (en particulier une contrainte encadrée). argminuf(u,x)argminuf(u,x) \arg \min_u f(u,x) sujet à c(u,x)=0c(u,x)=0 c(u,x) = 0 a≤d(u,x)≤ba≤d(u,x)≤b a \le d(u,x) \le b où uuu est un vecteur de variables de conception, xxx est un vecteur …
J'ai été très surpris lorsque j'ai commencé à lire quelque chose sur l'optimisation non convexe en général et j'ai vu des déclarations comme celle-ci: De nombreux problèmes pratiques importants ne sont pas convexes et la plupart des problèmes non convexes sont difficiles (sinon impossibles) à résoudre exactement dans un délai …
Étant donné un état souhaité et un paramètre de régularisation , considérons le problème de trouver un état et un contrôle pour minimiser une soumis à la contrainte \ begin {equation} Ay = u. \ end {equation} où pour simplifier on peut penser à y, y_0, u \ in \ …
J'essaie de résoudre certains problèmes d'optimisation non linéaire sans contrainte sur le GPU (CUDA). La fonction objectif est une fonction non linéaire lisse, et son gradient est relativement bon marché à calculer analytiquement, donc je n'ai pas besoin de me soucier de l'approximation numérique. Je veux résoudre ce problème avec …
Je voudrais savoir s'il existe un moyen rapide de calculer la distance euclidienne de deux vecteurs en octave. Il semble qu'il n'y ait pas de fonction spéciale pour cela, alors devrais-je simplement utiliser la formule avec sqrt?
J'ai une fonction 2D non convexe bornée dont j'aimerais trouver le minimum. La fonction est assez fluide. L'évaluer coûte cher. Une erreur acceptable est d'environ 3% du domaine de la fonction dans chaque axe. J'ai essayé d'exécuter l'implémentation de l'algorithme DIRECT dans la bibliothèque NLOPT, mais cela n'a pas donné …
Supposer minAvec(U)subject to Ui,j≤max{Ui,k,Uk,j},i,j,k=1,…,nminAvec(U)subject to Ui,j≤max{Ui,k,Uk,j},i,j,k=1,…,n\begin{align*} \min A &\mathrm{vec}(U) \\ &\text{subject to } U_{i,j} \leq \max\{U_{i,k}, U_{k,j}\}, \quad i,j,k = 1, \ldots, n \end{align*} où UUU est une matrice n \ fois n symétrique n×nn×nn\times n, et vec(U)vec(U)\mathrm{vec}(U) remodèle UUU en un vecteur unidimensionnel avec n2n2n^2 entrées. La partie du …
Je participe régulièrement à ce que l'on appelle des "concours de programmation", où vous résolvez des problèmes algorithmiques difficiles avec votre propre code et des compétences en résolution de problèmes pendant une période de temps limitée. Pour des exemples référentiels de ce à quoi ils pourraient ressembler, recherchez des compétitions …
Existe-t-il un algorithme (efficace) pour sélectionner un sous-ensemble de points dans un ensemble de points ( ) de telle sorte qu'ils "couvrent" la plus grande partie de la zone (sur tous les sous-ensembles possibles de taille )?MMMNNNM< NM<NM < NMMM Je suppose que les points sont dans un plan 2D. …
J'optimise une fonction de 10-20 variables. La mauvaise nouvelle est que chaque évaluation de fonction est coûteuse, environ 30 min de calcul en série. La bonne nouvelle est que j'ai un cluster avec quelques dizaines de nœuds de calcul à ma disposition. D'où la question: existe-t-il des algorithmes d'optimisation qui …
J'enseigne un cours d'enquête en analyse numérique et je recherche la motivation pour la méthode BFGS pour les étudiants ayant une formation / intuition limitée en optimisation! Bien que je n'aie pas le temps de prouver rigoureusement que tout converge, je cherche à donner une motivation raisonnable pour expliquer pourquoi …
Il semble y avoir deux principaux types de fonction de test pour les optimiseurs sans dérivation: des lignes simples comme la fonction Rosenbrock ff., avec des points de départ ensembles de points de données réels, avec un interpolateur Est-il possible de comparer, disons, 10d Rosenbrock avec de vrais problèmes 10d? …
Il existe un système de contraintes linéaires Ax≤bAx≤b{\bf Ax} \leq {\bf b} . Je souhaite trouver un vecteur strictement positif x>0x>0{\bf x} > 0 qui satisfait ces contraintes. Cela signifie que est requis pour chaque composant de . Comment puis-je utiliser un solveur LP pour trouver un vecteur aussi strictement …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.