Questions marquées «generalized-linear-model»

Une généralisation de la régression linéaire permettant des relations non linéaires via une "fonction de liaison" et pour que la variance de la réponse dépende de la valeur prédite. (À ne pas confondre avec le «modèle linéaire général» qui étend le modèle linéaire ordinaire à la structure de covariance générale et à la réponse multivariée.)

3
GLM binomial négatif ou transformation logarithmique pour les données de comptage: augmentation du taux d'erreur de type I
Certains d'entre vous ont peut-être lu ce bel article: O'Hara RB, Kotze DJ (2010) Ne pas enregistrer les données de comptage par transformation. Méthodes en écologie et évolution 1: 118-122. Klick . Dans mon domaine de recherche (écotoxicologie), nous avons affaire à des expériences mal reproduites et les GLM ne …


5
Les statisticiens supposent-ils qu'on ne peut pas trop arroser une plante, ou est-ce que j'utilise simplement les mauvais termes de recherche pour la régression curviligne?
Presque tout ce que j'ai lu sur la régression linéaire et GLM se résume à ceci: où est une fonction non croissante ou non décroissante de et est le paramètre que vous estimer et tester des hypothèses sur. Il existe des dizaines de fonctions de liaison et de transformations de …



2
Pourquoi exactement la régression bêta ne peut-elle pas traiter les 0 et les 1 dans la variable de réponse?
La régression bêta (c'est-à-dire GLM avec distribution bêta et généralement la fonction de lien logit) est souvent recommandée pour traiter la réponse aka variable dépendante prenant des valeurs comprises entre 0 et 1, telles que les fractions, les ratios ou les probabilités: régression pour un résultat (rapport ou fraction) entre …

3
Quel algorithme d'optimisation est utilisé dans la fonction glm dans R?
On peut effectuer une régression logit dans R en utilisant un tel code: > library(MASS) > data(menarche) > glm.out = glm(cbind(Menarche, Total-Menarche) ~ Age, + family=binomial(logit), data=menarche) > coefficients(glm.out) (Intercept) Age -21.226395 1.631968 Il semble que l'algorithme d'optimisation ait convergé - il existe des informations sur le nombre d'étapes de …







1
Pearson VS Deviance Residuals dans la régression logistique
Je sais que les résidus Pearson standardisés sont obtenus de manière probabiliste traditionnelle: ri=yi−πiπi(1−πi)−−−−−−−−√ri=yi−πiπi(1−πi) r_i = \frac{y_i-\pi_i}{\sqrt{\pi_i(1-\pi_i)}} et les résidus de déviance sont obtenus de manière plus statistique (la contribution de chaque point à la vraisemblance): di=si−2[yilogπi^+(1−yi)log(1−πi)]−−−−−−−−−−−−−−−−−−−−−−−−−−√di=si−2[yilog⁡πi^+(1−yi)log⁡(1−πi)] d_i = s_i \sqrt{-2[y_i \log \hat{\pi_i} + (1 - y_i)\log(1-\pi_i)]} où = 1 …


En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.