En régression linéaire, les observations sont supposées suivre une distribution gaussienne avec un paramètre moyen dépendant des valeurs des prédicteurs. Si vous soustrayez la moyenne des observations, vous obtenez l' erreur : une distribution gaussienne avec un zéro moyen, et indépendante des valeurs des prédicteurs - c'est-à-dire que les erreurs de tout ensemble de valeurs des prédicteurs suivent la même distribution.
Dans les observations de régression logistique, sont supposés suivre une distribution de Bernoulli † avec un paramètre moyen (une probabilité) conditionnel aux valeurs du prédicteur. Ainsi, pour toute valeur prédictive donnée déterminant une moyenne π, il n'y a que deux erreurs possibles: 1 - π se produisant avec la probabilité π , et 0 - π se produisant avec la probabilité 1 - π . Pour les autres valeurs des prédicteurs, les erreurs seront 1 - π ′ se produisant avec la probabilité π ′y∈{0,1}π1−ππ0−π1−π1−π′π′, & se produisant avec la probabilité 1 - π ′ . Il n'y a donc pas de distribution d'erreur commune indépendante des valeurs des prédicteurs, c'est pourquoi les gens disent "aucun terme d'erreur n'existe" (1).0−π′1−π′
"Le terme d'erreur a une distribution binomiale" (2) est juste une négligence - "Les modèles gaussiens ont des erreurs gaussiennes, les modèles ergo binomiaux ont des erreurs binomiales". (Ou, comme le souligne @whuber, cela pourrait signifier que "la différence entre une observation et son attente a une distribution binomiale traduite par l'attente".)
«Le terme d'erreur a une distribution logistique» (3) découle de la dérivation de la régression logistique du modèle où vous observez si une variable latente avec des erreurs suite à une distribution logistique dépasse un certain seuil. Ce n'est donc pas la même erreur définie ci-dessus. (Il semblerait étrange de dire OMI en dehors de ce contexte, ou sans référence explicite à la variable latente.)
† Si vous avez observations avec les mêmes valeurs de prédicteur, donnant la même probabilité π pour chacune, alors leur somme ∑ y suit une distribution binomiale avec probabilité π et non. essais k . En considérant ∑ y - k π comme l'erreur conduit aux mêmes conclusions.kπ∑yπk∑y−kπ