Les résidus d'un modèle sont les valeurs réelles moins les valeurs prévues. De nombreux modèles statistiques font des hypothèses sur l'erreur, qui est estimée par les résidus.
Dans un scénario de régression LASSO où y=Xβ+ϵy=Xβ+ϵy= X \beta + \epsilon , et les estimations de LASSO sont données par le problème d'optimisation suivant minβ||y−Xβ||+τ||β||1minβ||y−Xβ||+τ||β||1 \min_\beta ||y - X \beta|| + \tau||\beta||_1 Existe-t-il des hypothèses de distribution concernant le ?ϵϵ\epsilon Dans un scénario OLS, on peut s'attendre à ce …
Le contexte Cette question utilise R, mais concerne des problèmes statistiques généraux. J'analyse les effets des facteurs de mortalité (% de mortalité due aux maladies et au parasitisme) sur le taux de croissance de la population de papillons au fil du temps, où les populations de larves ont été échantillonnées …
Supposons que nous ayons exécuté une régression linéaire simple y=β0+β1x+uy=β0+β1x+uy=\beta_0+\beta_1x+u , enregistré les résidus et dessiné un histogramme de distribution des résidus. Si nous obtenons quelque chose qui ressemble à une distribution familière, pouvons-nous supposer que notre terme d'erreur a cette distribution? Disons, si nous avons découvert que les résidus …
Je sais que les résidus Pearson standardisés sont obtenus de manière probabiliste traditionnelle: ri=yi−πiπi(1−πi)−−−−−−−−√ri=yi−πiπi(1−πi) r_i = \frac{y_i-\pi_i}{\sqrt{\pi_i(1-\pi_i)}} et les résidus de déviance sont obtenus de manière plus statistique (la contribution de chaque point à la vraisemblance): di=si−2[yilogπi^+(1−yi)log(1−πi)]−−−−−−−−−−−−−−−−−−−−−−−−−−√di=si−2[yilogπi^+(1−yi)log(1−πi)] d_i = s_i \sqrt{-2[y_i \log \hat{\pi_i} + (1 - y_i)\log(1-\pi_i)]} où = 1 …
Une question d'un débutant sur le résidu de Pearson dans le contexte du test du khi carré pour la qualité de l'ajustement: En plus de la statistique de test, la chisq.testfonction de R indique le résidu de Pearson: (obs - exp) / sqrt(exp) Je comprends pourquoi regarder la différence brute …
C'est quelque chose que je vois comme une sorte de méthode ad hoc et cela me semble très louche, mais peut-être que je manque quelque chose. J'ai vu cela en régression multiple, mais restons simples: yi=β0+β1xi+εiyi=β0+β1xi+εi y_{i} = \beta_{0} + \beta_{1} x_{i} + \varepsilon_{i} Maintenant, prenez les résidus du modèle …
\newcommand{\E}{\mathbb{E}} Comment est la transformation de normalisation pour la famille exponentielle dérivé? A ( ⋅ ) = ∫ d uV une / 3 ( μ )A(⋅)=∫duV1/3(μ)A(\cdot) = \displaystyle\int\frac{du}{V^{1/3}(\mu)} Plus précisément : j'ai essayé de suivre le croquis d'extension de Taylor à la page 3, diapositive 1 ici, mais j'ai plusieurs …
J'essaie de faire une régression sur des données hétéroscédastiques où j'essaie de prédire les variances d'erreur ainsi que les valeurs moyennes en termes de modèle linéaire. Quelque chose comme ça: y(x,t)ξ(x,t)y¯(x,t)σ(x,t)=y¯(x,t)+ξ(x,t),∼N(0,σ(x,t)),=y0+ax+bt,=σ0+cx+dt.y(x,t)=y¯(x,t)+ξ(x,t),ξ(x,t)∼N(0,σ(x,t)),y¯(x,t)=y0+ax+bt,σ(X,t)=σ0+cX+rét.\begin{align}\\ y\left(x,t\right) &= \bar{y}\left(x,t\right)+\xi\left(x,t\right),\\ \xi\left(x,t\right) &\sim N\left(0,\sigma\left(x,t\right)\right),\\ \bar{y}\left(x,t\right) &= y_{0}+ax+bt,\\ \sigma\left(x,t\right) &= \sigma_{0}+cx+dt. \end{align} En d'autres termes, les données consistent …
J'ai une série chronologique que j'essaie de prévoir, pour laquelle j'ai utilisé le modèle saisonnier ARIMA (0,0,0) (0,1,0) [12] (= fit2). C'est différent de ce que R a suggéré avec auto.arima (R calculé ARIMA (0,1,1) (0,1,0) [12] serait un meilleur ajustement, je l'ai nommé fit1). Cependant, au cours des 12 …
J'analyse un ensemble de données à l'aide d'un modèle à effets mixtes avec un effet fixe (condition) et deux effets aléatoires (participant en raison de la conception et de la paire du sujet). Le modèle a été généré avec le lme4package: exp.model<-lmer(outcome~condition+(1|participant)+(1|pair),data=exp). Ensuite, j'ai effectué un test de rapport de …
Je prends un cours sur les modèles de régression et l'une des propriétés fournies pour la régression linéaire est que les résidus résument toujours à zéro lorsqu'une interception est incluse. Quelqu'un peut-il expliquer pourquoi c'est le cas?
Une erreur standard est l'écart - type estimé σ ( θ ) d'un estimateur θ pour un paramètre .σ^( θ^)σ^(θ^)\hat \sigma(\hat\theta)θ^θ^\hat\thetaθθ\theta Pourquoi l'écart-type estimé des résidus est-il appelé "erreur-type résiduelle" (par exemple, dans la sortie de la summary.lmfonction de R ) et non "écart-type résiduel"? Quelle estimation de paramètre équipons-nous …
Je voudrais faire un test W de Shapiro Wilk et un test de Kolmogorov-Smirnov sur les résidus d'un modèle linéaire pour vérifier la normalité. Je me demandais simplement quels résidus utiliser pour cela - les résidus bruts, les résidus Pearson, les résidus studentisés ou les résidus standardisés? Pour un test …
Question assez basique: Que signifie une distribution normale des résidus d'une régression linéaire? En termes de, comment cela se reflète-t-il sur mes données d'origine de la régression? Je suis totalement perplexe, merci les gars
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.