Disons que nous sommes dans un espace de probabilité discret de sorte que . Intuitivement, vous avez besoin d'une fonction pour pouvoir optimiser . Vous ne pouvez optimiser qu'un seul objectif! U : R n → R U ( f ( x ) )F( x ) ∈ RnU: Rn→ RU( f( x ) )
L'optimisation d'une fonction d'objectif unique peut sembler assez contraignante, mais ce n'est pas le cas ! Au contraire, un seul objectif peut représenter des préférences incroyablement diverses que vous pourriez avoir par rapport à ce qui est une solution meilleure ou pire.
En sautant, un simple point de départ peut être de choisir une variable aléatoire puis de résoudre:λ
E[f(x)]
minimiser (sur x )sujet àE[ λ f( x ) ]x ∈ X
Il s'agit d'une simple repondération linéaire de . Quoi qu'il en soit, voici un argument pour expliquer pourquoi le regroupement de plusieurs objectifs en un seul objectif est généralement correct.
E[ f( x ) ]
Configuration de base:
- Vous avez une variable de choix et un ensemble réalisable .XXX
- Votre choix de conduit à un résultat aléatoire˜ y = f ( x )Xy~= f( x )
- Vous avez des préférences rationnelles sur le résultat aléatoire. (Fondamentalement, vous pouvez dire si vous préférez un résultat aléatoire à un autre.)˜ y≺y~
Votre problème est de choisir tel que:X∗∈ X
∄x ∈ XF( x∗) ≺ f( x )
En anglais, vous voulez choisir afin qu'aucun choix réalisable conduise à un résultat préféré à .
X∗XF( x∗)
Équivalence à maximiser l'utilité (sous certaines conditions techniques)
Pour des raisons de simplicité technique, je dirai que nous sommes dans un espace de probabilité discret avec résultats afin que je puisse représenter un résultat aléatoire avec un vecteur .ny~y ∈ Rn
Sous certaines conditions techniques (qui ne sont pas limitatives au sens pratique), le problème ci-dessus équivaut à maximiser une fonction d'utilité . (La fonction d'utilité attribue un nombre plus élevé de résultats préférés.)U( y )
Cette logique s'appliquerait à tout problème où votre choix conduit à plusieurs variables de résultat.
maximiser (sur x )sujet àU( f( x ) )x ∈ X
Donner plus de structure à la fonction d'utilité : Hypothèse d' utilité attendue :U
Si nous sommes dans un cadre probabiliste et que nous acceptons les axiomes de Neumann-Morgernstern , la fonction d'utilité globale doit prendre une forme spéciale:U
U( y ) = E[ u ( yje) ] = ∑jepjeu ( yje)
Où est la probabilité de l'état et est une fonction d'utilité concave. La courbure de mesure l'aversion au risque. Substituant simplement cette forme spécialisée de , vous obtenez:
pjejeuuU
maximiser (sur x )sujet à∑jepjeu ( yje)x ∈ Xy =f( x )
Observez que le cas simple maximise la valeur attendue (c.-à-d. Aucune aversion au risque).u ( yje) = yje
Une autre approche: poidsλ
Une autre chose à faire est:
maximiser (sur x )sujet à∑jeλjeyjex ∈ Xy =f( x )
Intuitivement, vous pouvez choisir des poids qui sont plus grands ou plus petits que la probabilité d'un état, et cela capture l'importance d'un état.λjepje
La justification plus profonde de cette approche est que dans certaines conditions techniques, il existe des poids lambda tels que le problème ci-dessus et les problèmes précédents (par exemple, maximiser ) ont la même solution.λU( f( x ) )