polr()
MASS
Oui1 , … , g, … , KX1, … , Xj, … , Xppolr()
logit ( p ( Y⩽ g) ) = lnp ( Y⩽ g)p ( Y> g)= β0g- ( β1X1+ ⋯ + βpXp)
Pour les choix possibles implémentés dans d'autres fonctions, voir cette réponse . La fonction logistique est l'inverse de la fonction logit, donc les probabilités prédites sontp^( Y⩽ g)
p^( Y⩽ g) = eβ^0g- ( β^1X1+ ⋯ + β^pXp)1 + eβ^0g- ( β^1X1+ ⋯ + β^pXp)
Les probabilités de catégorie prédites sont . Voici un exemple reproductible en R avec deux prédicteurs . Pour une variable ordinale , j'ai découpé une variable continue simulée en 4 catégories.P^( Y= g) = P^( Y≤ g) - P^( Y≤ g- 1 )X1, X2Oui
set.seed(1.234)
N <- 100 # number of observations
X1 <- rnorm(N, 5, 7) # predictor 1
X2 <- rnorm(N, 0, 8) # predictor 2
Ycont <- 0.5*X1 - 0.3*X2 + 10 + rnorm(N, 0, 6) # continuous dependent variable
Yord <- cut(Ycont, breaks=quantile(Ycont), include.lowest=TRUE,
labels=c("--", "-", "+", "++"), ordered=TRUE) # ordered factor
Ajustez maintenant le modèle de cotes proportionnelles en utilisant polr()
et obtenez la matrice des probabilités de catégorie prédites en utilisant predict(polr(), type="probs")
.
> library(MASS) # for polr()
> polrFit <- polr(Yord ~ X1 + X2) # ordinal regression fit
> Phat <- predict(polrFit, type="probs") # predicted category probabilities
> head(Phat, n=3)
-- - + ++
1 0.2088456 0.3134391 0.2976183 0.1800969
2 0.1967331 0.3068310 0.3050066 0.1914293
3 0.1938263 0.3051134 0.3067515 0.1943088
Pour vérifier manuellement ces résultats, nous devons extraire les estimations des paramètres, à partir de celles-ci calculer les logits prédits, à partir de ces logits calculer les probabilités prédites , puis lier les probabilités de catégorie prédites à une matrice .p^( Y⩽ g)
ce <- polrFit$coefficients # coefficients b1, b2
ic <- polrFit$zeta # intercepts b0.1, b0.2, b0.3
logit1 <- ic[1] - (ce[1]*X1 + ce[2]*X2)
logit2 <- ic[2] - (ce[1]*X1 + ce[2]*X2)
logit3 <- ic[3] - (ce[1]*X1 + ce[2]*X2)
pLeq1 <- 1 / (1 + exp(-logit1)) # p(Y <= 1)
pLeq2 <- 1 / (1 + exp(-logit2)) # p(Y <= 2)
pLeq3 <- 1 / (1 + exp(-logit3)) # p(Y <= 3)
pMat <- cbind(p1=pLeq1, p2=pLeq2-pLeq1, p3=pLeq3-pLeq2, p4=1-pLeq3) # matrix p(Y = g)
Comparez avec le résultat de polr()
.
> all.equal(pMat, Phat, check.attributes=FALSE)
[1] TRUE
Pour les catégories prédites, il predict(polr(), type="class")
suffit de sélectionner - pour chaque observation - la catégorie ayant la probabilité la plus élevée.
> categHat <- levels(Yord)[max.col(Phat)] # category with highest probability
> head(categHat)
[1] "-" "-" "+" "++" "+" "--"
Comparez pour résulter de polr()
.
> facHat <- predict(polrFit, type="class") # predicted categories
> head(facHat)
[1] - - + ++ + --
Levels: -- - + ++
> all.equal(factor(categHat), facHat, check.attributes=FALSE) # manual verification
[1] TRUE
predict
fonction diffèrent-elles de celles que vous avez générées manuellement? Quelle est la structure de votre variable dépendante? Veuillez fournir un exemple reproductible.