Questions marquées «residuals»

Les résidus d'un modèle sont les valeurs réelles moins les valeurs prévues. De nombreux modèles statistiques font des hypothèses sur l'erreur, qui est estimée par les résidus.

1
Quel type d'analyse post-ajustement des résidus utilisez-vous?
Lors de la régression linéaire multiple OLS, plutôt que de tracer les résidus par rapport aux valeurs ajustées, je trace les résidus Studentized (internes) par rapport aux valeurs ajustées (idem pour les covariables). Ces résidus sont définis comme: e∗je= ejes2( 1 - hje je)---------√eje∗=ejes2(1-hjeje)\begin{equation} e^*_i = \frac{e_i}{\sqrt{s^2 (1-h_{ii})}} \end{equation} où …

2
Pourquoi utilisons-nous des résidus pour tester les hypothèses sur les erreurs de régression?
Supposons que nous ayons un modèle .Yi=β0+β1Xi1+β2Xi2+⋯+βkXik+ϵiYi=β0+β1Xi1+β2Xi2+⋯+βkXik+ϵiY_i = \beta_0 + \beta_1X_{i1} + \beta_2X_{i2} + \dots + \beta_kX_{ik} + \epsilon_i La régression a un certain nombre d'hypothèses, telles que les erreurs devraient être normalement distribuées avec un zéro moyen et une variance constante. On m'a appris à vérifier ces hypothèses en …

1
Différence entre Outlier et Inlier
Je suis tombé sur le terme inlier dans la mesure LOF (Local Outlier Factor), je connais bien le terme de valeurs aberrantes (enfin essentiellement des menteurs - des instances qui ne se comportent pas comme les autres instances). Que signifie «Inliers» dans le contexte de la détection d'anomalies? et comment …


3
Bootstrap résiduels: est-ce que je le fais bien?
Tout d'abord: D'après ce que j'ai compris, les résidus d'amorçage fonctionnent comme suit: Adapter le modèle aux données Calculez les résidus Rééchantillonnez les résidus et ajoutez-les à 1. Ajuster le modèle au nouvel ensemble de données à partir de 3. Répétez les ntemps, mais ajoutez toujours les résidus rééchantillonnés à …

2
Distribution asymétrique gauche vs symétrique observée
C'est assez difficile à décrire pour moi, mais je vais essayer de rendre mon problème compréhensible. Donc, vous devez d'abord savoir que j'ai fait une régression linéaire très simple jusqu'à présent. Avant d'estimer le coefficient, j'ai regardé la distribution de mon . Il est lourd gauche asymétrique. Après avoir estimé …


4
Est-il possible de décomposer les résidus ajustés en biais et variance, après avoir ajusté un modèle linéaire?
Je voudrais classer les points de données comme ayant besoin d'un modèle plus complexe ou n'ayant pas besoin d'un modèle plus complexe. Ma pensée actuelle est d'adapter toutes les données à un modèle linéaire simple et d'observer la taille des résidus pour faire cette classification. J'ai ensuite fait quelques lectures …

2
Comment les résidus sont-ils liés aux perturbations sous-jacentes?
Dans la méthode des moindres carrés, nous voulons estimer les paramètres inconnus dans le modèle: Yj=α+βxj+εj(j=1...n)Yj=α+βxj+εj(j=1...n)Y_j = \alpha + \beta x_j + \varepsilon_j \enspace (j=1...n) Une fois que nous avons fait cela (pour certaines valeurs observées), nous obtenons la droite de régression ajustée: Yj=α^+β^x+ej(j=1,...n)Yj=α^+β^x+ej(j=1,...n)Y_j = \hat{\alpha} + \hat{\beta}x +e_j \enspace …

2
Pourquoi les résidus de Pearson d'une régression binomiale négative sont-ils plus petits que ceux d'une régression de poisson?
J'ai ces données: set.seed(1) predictor <- rnorm(20) set.seed(1) counts <- c(sample(1:1000, 20)) df <- data.frame(counts, predictor) J'ai couru une régression de poisson poisson_counts <- glm(counts ~ predictor, data = df, family = "poisson") Et une régression binomiale négative: require(MASS) nb_counts <- glm.nb(counts ~ predictor, data = df) Ensuite, j'ai calculé …






En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.