En utilisant R sur certaines données et en essayant de voir si mes données sont hétéroscédastiques, j'ai trouvé deux implémentations du test de Breusch-Pagan, bptest (package lmtest) et ncvTest (package car). Cependant, ceux-ci produisent des résultats différents. Quelle est la différence entre les deux? Quand devriez-vous choisir d'utiliser l'un ou …
Dans cet article , ( Inférence bayésienne pour les composants de la variance utilisant uniquement des contrastes d'erreur , Harville, 1974), l'auteur affirme pour être "bien connu" relation ", pour une régression linéaire où y = X β( y- Xβ)′H- 1( y- Xβ) = ( y- Xβ^)′H-1( y- Xβ^) +( …
Je sais que l'OLS est non biaisé mais pas efficace sous hétéroscédasticité dans un cadre de régression linéaire. Sur Wikipédia http://en.wikipedia.org/wiki/Minimum_mean_square_error L'estimateur MMSE est asymptotiquement non biaisé et sa distribution converge vers la distribution normale: , où I (x) est l'information Fisher de x. Ainsi, l'estimateur MMSE est asymptotiquement efficace.n--√( …
J'ai des données de la conception expérimentale suivante: mes observations sont des décomptes du nombre de succès ( K) sur le nombre correspondant d'essais ( N), mesurés pour deux groupes comprenant chacun des Iindividus, à partir de Ttraitements, où dans chaque combinaison de facteurs il y a des Rrépétitions . …
Dans la méthode des moindres carrés, nous voulons estimer les paramètres inconnus dans le modèle: Yj=α+βxj+εj(j=1...n)Yj=α+βxj+εj(j=1...n)Y_j = \alpha + \beta x_j + \varepsilon_j \enspace (j=1...n) Une fois que nous avons fait cela (pour certaines valeurs observées), nous obtenons la droite de régression ajustée: Yj=α^+β^x+ej(j=1,...n)Yj=α^+β^x+ej(j=1,...n)Y_j = \hat{\alpha} + \hat{\beta}x +e_j \enspace …
J'ai du mal à distinguer les concepts de scédasticité et de stationnarité. Si je comprends bien, l'hétéroscédasticité correspond à des variabilités différentes dans les sous-populations et la non-stationnarité est une moyenne / variance changeante au fil du temps. S'il s'agit d'une compréhension correcte (quoique simpliste), la non-stationnarité est-elle simplement un …
Supposons que j'observe des vecteurs variables indépendants et → z et une variable dépendante y . Je voudrais adapter un modèle de la forme: y = → x ⊤ → β 1 + σ g ( → z ⊤ → β 2 ) ϵ , où g est une fonction …
Je veux exécuter des corrélations sur un certain nombre de mesures où des échelles de Likert ont été utilisées. En regardant les diagrammes de dispersion, il apparaît que les hypothèses de linéarité et d'homoscédasticité peuvent avoir été violées. Étant donné qu'il semble y avoir un débat autour de la notation …
Dans RJe peux effectuer un test de Breusch – Pagan pour l'hétéroscédasticité en utilisant la ncvTestfonction du carpackage. Un test de Breusch – Pagan est un type de test du chi carré. Comment interpréter ces résultats: > require(car) > set.seed(100) > x1 = runif(100, -1, 1) > x2 = runif(100, …
J'essaie de produire un modèle mixte linéaire, le code R est le suivant. lme (Average.payoff ~ Game + Type + Others.Type + Game: Type + Game: Others.Type + Type: Others.Type, random = ~ 1 | Subjects, method = "REML", data = Subjectsm1) -> lme1 Le terme de réponse Average.payoff est …
Ceci est une question de suivi que j'ai après avoir examiné ce post: Différence de test statistique des moyennes pour les données hétéroscédastiques non normales? Pour être clair, je demande dans une perspective pragmatique (ne pas suggérer que les réponses théoriques ne sont pas les bienvenues). Lorsque la normalité entre …
J'ai des données de collecte à long terme et j'aimerais tester si le nombre d'animaux collectés est influencé par les effets météorologiques. Mon modèle ressemble à ci-dessous: glmer(SumOfCatch ~ I(pc.act.1^2) +I(pc.act.2^2) + I(pc.may.1^2) + I(pc.may.2^2) + SampSize + as.factor(samp.prog) + (1|year/month), control=glmerControl(optimizer="bobyqa", optCtrl=list(maxfun=1e9,npt=5)), family="poisson", data=a2) Explication des variables utilisées: SumOfCatch: …
J'utilise R pour effectuer une régression linéaire. J'ai vu des moyens de calculer les intervalles de prédiction, mais ceux-ci dépendent de données homoscédastiques. Existe-t-il un moyen de calculer les intervalles de prédiction avec des données hétéroscédastiques?
J'essaie de créer un modèle de prédiction en utilisant la régression. Voici le tracé de diagnostic pour le modèle que j'obtiens en utilisant lm () dans R: Ce que j'ai lu dans le graphique QQ, c'est que les résidus ont une distribution à queue lourde, et le graphique Residuals vs …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.