Il existe quelques règles de notation correctes et strictement correctes pour les données de comptage que vous pouvez utiliser. Les règles de notation sont des pénalités introduites, P étant la distribution prédictive et y la valeur observée. Ils ont un certain nombre de propriétés souhaitables, d'abord et avant tout qu'une prévision qui est plus proche de la vraie probabilité recevra toujours moins de pénalité et qu'il y a une meilleure prévision (unique) et que c'est lorsque la probabilité prédite coïncide avec la vraie probabilité. Ainsi, minimiser l'espérance de s ( y , P ) signifie rapporter les vrais probabilités. Voir aussi Wikipedia .s ( y, P)Pys ( y, P)
Souvent, on prend une moyenne de celles sur toutes les valeurs prédites comme
S=1n∑ni=1s(y(i),P(i))
La règle à prendre dépend de votre objectif, mais je donnerai une caractérisation approximative lorsque chacun est bon à utiliser.
f(y)Pr(Y=y)F(y)∑k0,1,…,∞Iμσ
Règles de notation strictement appropriées
- Score de Brier : (stable pour le déséquilibre de taille dans les prédicteurs catégoriels)s(y,P)=−2f(y)+∑kf2(k)
- Score de Dawid-Sebastiani : (bon pour le choix général du modèle prédictif; stable pour le déséquilibre de taille dans les prédicteurs catégoriques)s(y,P)=(y−μσ)2+2logσ
- Score de déviance : ( est un terme de normalisation qui ne dépend que de , dans les modèles de Poisson, il est généralement considéré comme la déviance saturée; bon pour une utilisation avec des estimations à partir de un cadre ML)s(y,P)=−2logf(y)+gygyy
- Score logarithmique : (très facilement calculé; stable pour le déséquilibre de taille dans les prédicteurs catégoriques)s(y,P)=−logf(y)
- Score de probabilité classé : (bon pour contraster différentes prédictions de comptes très élevés; sensible au déséquilibre de taille dans les prédicteurs catégoriques)s(y,P)=∑k{F(k)−I(y≤k)}2
- Score sphérique : (stable pour le déséquilibre de taille dans les prédicteurs catégoriels)s(y,P)=f(y)∑kf2(k)√
Autres règles de notation (moins appropriées mais souvent utilisées)
- Score d'erreur absolu :(pas bon)s(y,P)=|y−μ|
- Score d'erreur quadratique : (pas strictement approprié; sensible aux valeurs aberrantes; sensible au déséquilibre de taille dans les prédicteurs catégoriques)s(y,P)=(y−μ)2
- Score d'erreur quadratique normalisé de Pearson : (pas strictement approprié; sensible aux valeurs aberrantes; peut être utilisé pour vérifier si le modèle vérifie si le score moyen est très différent de 1; stable pour le déséquilibre de taille dans les prédicteurs catégoriels)s(y,P)=(y−μσ)2
Exemple de code R pour les règles strictement appropriées:
library(vcdExtra)
m1 <- glm(Freq ~ mental, family=poisson, data=Mental)
# scores for the first observation
mu <- predict(m1, type="response")[1]
x <- Mental$Freq[1]
# logarithmic (equivalent to deviance score up to a constant)
-log(dpois(x, lambda=mu))
# quadratic (brier)
-2*dpois(x,lambda=mu) + sapply(mu, function(x){ sum(dpois(1:1000,lambda=x)^2) })
# spherical
- dpois(x,mu) / sqrt(sapply(mu, function(x){ sum(dpois(1:1000,lambda=x)^2) }))
# ranked probability score
sum(ppois((-1):(x-1), mu)^2) + sum((ppois(x:10000,mu)-1)^2)
# Dawid Sebastiani
(x-mu)^2/mu + log(mu)