Pourquoi l'optimisation d'un mélange de gaussien directement est-elle difficile à calculer?


18

Considérez la probabilité logarithmique d'un mélange de gaussiens:

l(Sn;θ)=t=1nlogf(x(t)|θ)=t=1nlog{i=1kpif(x(t)|μ(i),σi2)}

Je me demandais pourquoi il était difficile de calculer directement cette équation? Je cherchais soit une claire intuition solide sur pourquoi il devrait être évident que c'est difficile, soit peut-être une explication plus rigoureuse de la raison pour laquelle c'est dur. Ce problème est-il NP-complet ou ne savons-nous pas encore comment le résoudre? Est-ce la raison pour laquelle nous avons recours à l' algorithme EM ( expectation-maximization )?


Notation:

Sn = données d'entraînement.

x(t) = point de données.

θ = l'ensemble des paramètres spécifiant le gaussien, leurs moyennes, les écarts-types et la probabilité de générer un point à partir de chaque cluster / classe / gaussien.

pi = la probabilité de générer un point à partir d'un cluster / classe / gaussien i.

Réponses:


14

nkknkn

Deuxièmement, la fonctionnalité que vous essayez de minimiser n'est pas convexe et, avec la taille de votre problème, la rend très difficile. Je sais seulement que k-means (GMM peut être vu comme une version douce de kmeans) est NP-difficile. Mais je ne sais pas si cela a également été prouvé pour GMM.

L=log(e(x/σ1)2+e(x/σ2)2)
d2Ldx2>0

Avoir un problème non convexe signifie que vous pouvez rester coincé dans les minima locaux. En général, vous n'avez pas les garanties solides que vous avez dans l'optimisation convexe, et la recherche d'une solution est également beaucoup plus difficile.


3
Concernant le deuxième point: les k-moyennes peuvent être considérées comme un cas particulier des GMM (plus précisément, un cas limite où les variances sont ramenées à zéro). Si nous pouvons réduire les k-moyennes à l'ajustement d'un GMM, celui-ci doit également être un problème NP-difficile.
Lucas

1
@Lucas: Voici un lien Cross Validated vers votre remarque.
Xi'an

7

En plus des points de juampa, permettez-moi de signaler ces difficultés:

  • l(θ|Sn)+μ^(i)=x1σ^i=0
  • knl(θ|Sn)θl'image ci-dessous

tiré de mon livre .

Une remarque supplémentaire: sans appeler l'algorithme EM, on peut utiliser un algorithme d'optimisation standard (comme Newton-Raphson) un paramètre à la fois, c'est-à-dire, itérer

  • θ1=argmaxθ1l(θ|Sn)
  • θ2=argmaxθ2l(θ1,θ1|Sn)
  • ...
  • θv=argmaxθvl(θv,θv|Sn)

vl(θ|Sn)


OK, L est illimité si la variance est 0. Mais si nous les excluons des paramètres possibles (donc nous supposons que toute variance> 0), alors L ne devrait pas être si élevé chaque fois que la variance infinitésimale choisie (à cause d'autres points). Ai-je raison? Ensuite, pour cet ensemble possible de paramètres, L serait borné, ce qui impliquerait que l'algorithme EM converge (augmentation de la séquence bornée).
ahstat

@ahstat: supposer que les variances sont strictement positives n'empêche pas EM de converger vers une solution dégénérée s'il est démarré suffisamment près.
Xi'an
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.