Configuration du problème
L'un des premiers problèmes de jouets auquel j'ai voulu appliquer PyMC est le clustering non paramétrique: étant donné certaines données, modélisez-le comme un mélange gaussien et apprenez le nombre de clusters et la moyenne et la covariance de chaque cluster. La plupart de ce que je sais de cette méthode provient de conférences vidéo de Michael Jordan et Yee Whye Teh, vers 2007 (avant que la rareté ne devienne la rage), et des deux derniers jours de lecture des tutoriels du Dr Fonnesbeck et d'E. Chen [fn1], [ fn2]. Mais le problème est bien étudié et a quelques implémentations fiables [fn3].
Dans ce problème de jouet, je génère dix tirages à partir d'un gaussien unidimensionnel ( μ = 0 , σ = 1 ) et quarante tirages à partir de N ( μ = 4 , σ = 2 ) . Comme vous pouvez le voir ci-dessous, je n'ai pas mélangé les tirages, pour qu'il soit facile de dire quels échantillons provenaient de quel composant du mélange.
Je modèle chaque échantillon de données , pour i = 1 , . . . , 50 et où z i indique la grappe pour cette i ème point de données: z i ∈ [ 1 , . . . , N D P ] . N D P ici est la longueur du processus de Dirichlet tronqué utilisé: pour moi, N.
En développant l'infrastructure du processus de Dirichlet, chaque ID de cluster est un tirage d'une variable aléatoire catégorielle, dont la fonction de masse de probabilité est donnée par la construction de rupture de bâton: z i ∼ C a t e g o r i c a l ( p ) avec p ∼ S t i c k ( α ) pour un paramètre de concentration α . Le bris de bâtons construit le vecteur N D P- long p, qui doit être égal à 1, en obtenant d'abord iid tirages distribués bêta qui dépendent de α , voir [fn1]. Et comme je voudrais que les données informent mon ignorance de α , je suis [fn1] et je suppose que α ∼ U n i f o r m ( 0,3 , 100 ) .
Cela spécifie comment l'ID de cluster de chaque échantillon de données est généré. Chacun des groupes a une moyenne et un écart-type associés, μ z i et σ z i . Ensuite, μ z i ∼ N ( μ = 0 , σ = 50 ) et σ z i ∼ U n i f o r m ( 0 , 100 ) .
En résumé, mon modèle est:
, un scalaire. (Je regrette maintenant d'avoir légèrement égalé le nombre d'échantillons de données à la longueur tronquée du Dirichlet, mais j'espère que c'est clair.)
Voici le modèle graphique: les noms sont des noms de variables, voir la section code ci-dessous.
Énoncé du problème
Malgré plusieurs ajustements et correctifs échoués, les paramètres appris ne sont pas du tout similaires aux vraies valeurs qui ont généré les données.
Rappelant que les dix premiers échantillons de données provenaient d'un mode et les autres de l'autre, le résultat ci-dessus ne parvient clairement pas à saisir cela.
Si j'autorise l'initialisation aléatoire des ID de cluster, alors j'obtiens plus d'un cluster mais le cluster signifie que tous errent autour du même niveau 3.5:
Annexe: code
import pymc
import numpy as np
### Data generation
# Means and standard deviations of the Gaussian mixture model. The inference
# engine doesn't know these.
means = [0, 4.0]
stdevs = [1, 2.0]
# Rather than randomizing between the mixands, just specify how many
# to draw from each. This makes it really easy to know which draws
# came from which mixands (the first N1 from the first, the rest from
# the secon). The inference engine doesn't know about N1 and N2, only Ndata
N1 = 10
N2 = 40
Ndata = N1+N2
# Seed both the data generator RNG as well as the global seed (for PyMC)
RNGseed = 123
np.random.seed(RNGseed)
def generate_data(draws_per_mixand):
"""Draw samples from a two-element Gaussian mixture reproducibly.
Input sequence indicates the number of draws from each mixand. Resulting
draws are concantenated together.
"""
RNG = np.random.RandomState(RNGseed)
values = np.hstack([RNG.normal(means[i], stdevs[i], ndraws)
for (i,ndraws) in enumerate(draws_per_mixand)])
return values
observed_data = generate_data([N1, N2])
### PyMC model setup, step 1: the Dirichlet process and stick-breaking
# Truncation level of the Dirichlet process
Ndp = 50
# "alpha", or the concentration of the stick-breaking construction. There exists
# some interplay between choice of Ndp and concentration: a high concentration
# value implies many clusters, in turn implying low values for the leading
# elements of the probability mass function built by stick-breaking. Since we
# enforce the resulting PMF to sum to one, the probability of the last cluster
# might be then be set artificially high. This may interfere with the Dirichlet
# process' clustering ability.
#
# An example: if Ndp===4, and concentration high enough, stick-breaking might
# yield p===[.1, .1, .1, .7], which isn't desireable. You want to initialize
# concentration so that the last element of the PMF is less than or not much
# more than the a few of the previous ones. So you'd want to initialize at a
# smaller concentration to get something more like, say, p===[.35, .3, .25, .1].
#
# A thought: maybe we can avoid this interdependency by, rather than setting the
# final value of the PMF vector, scale the entire PMF vector to sum to 1? FIXME,
# TODO.
concinit = 5.0
conclo = 0.3
conchi = 100.0
concentration = pymc.Uniform('concentration', lower=conclo, upper=conchi,
value=concinit)
# The stick-breaking construction: requires Ndp beta draws dependent on the
# concentration, before the probability mass function is actually constructed.
betas = pymc.Beta('betas', alpha=1, beta=concentration, size=Ndp)
@pymc.deterministic
def pmf(betas=betas):
"Construct a probability mass function for the truncated Dirichlet process"
# prod = lambda x: np.exp(np.sum(np.log(x))) # Slow but more accurate(?)
prod = np.prod
value = map(lambda (i,u): u * prod(1.0 - betas[:i]), enumerate(betas))
value[-1] = 1.0 - sum(value[:-1]) # force value to sum to 1
return value
# The cluster assignments: each data point's estimated cluster ID.
# Remove idinit to allow clusterid to be randomly initialized:
idinit = np.zeros(Ndata, dtype=np.int64)
clusterid = pymc.Categorical('clusterid', p=pmf, size=Ndata, value=idinit)
### PyMC model setup, step 2: clusters' means and stdevs
# An individual data sample is drawn from a Gaussian, whose mean and stdev is
# what we're seeking.
# Hyperprior on clusters' means
mu0_mean = 0.0
mu0_std = 50.0
mu0_prec = 1.0/mu0_std**2
mu0_init = np.zeros(Ndp)
clustermean = pymc.Normal('clustermean', mu=mu0_mean, tau=mu0_prec,
size=Ndp, value=mu0_init)
# The cluster's stdev
clustersig_lo = 0.0
clustersig_hi = 100.0
clustersig_init = 50*np.ones(Ndp) # Again, don't really care?
clustersig = pymc.Uniform('clustersig', lower=clustersig_lo,
upper=clustersig_hi, size=Ndp, value=clustersig_init)
clusterprec = clustersig ** -2
### PyMC model setup, step 3: data
# So now we have means and stdevs for each of the Ndp clusters. We also have a
# probability mass function over all clusters, and a cluster ID indicating which
# cluster a particular data sample belongs to.
@pymc.deterministic
def data_cluster_mean(clusterid=clusterid, clustermean=clustermean):
"Converts Ndata cluster IDs and Ndp cluster means to Ndata means."
return clustermean[clusterid]
@pymc.deterministic
def data_cluster_prec(clusterid=clusterid, clusterprec=clusterprec):
"Converts Ndata cluster IDs and Ndp cluster precs to Ndata precs."
return clusterprec[clusterid]
data = pymc.Normal('data', mu=data_cluster_mean, tau=data_cluster_prec,
observed=True, value=observed_data)
Références
- fn1: http://nbviewer.ipython.org/urls/raw.github.com/fonnesbeck/Bios366/master/notebooks/Section5_2-Dirichlet-Processes.ipynb
- fn2: http://blog.echen.me/2012/03/20/infinite-mixture-models-with-nonparametric-bayes-and-the-dirichlet-process/
- fn3: http://scikit-learn.org/stable/auto_examples/mixture/plot_gmm.html#example-mixture-plot-gmm-py