La fonction lm dans R peut imprimer la covariance estimée des coefficients de régression. Que nous fournissent ces informations? Pouvons-nous maintenant mieux interpréter le modèle ou diagnostiquer les problèmes qui pourraient être présents dans le modèle?
J'ai des données de vente quotidiennes pour un produit très saisonnier. Je veux saisir la saisonnalité dans le modèle de régression. J'ai lu que si vous avez des données trimestrielles ou mensuelles, dans ce cas, vous pouvez créer respectivement 3 et 11 variables muettes - mais puis-je gérer les données …
Je voudrais comparer des modèles sélectionnés avec faîtage, lasso et filet élastique. La figure ci-dessous montre les chemins des coefficients en utilisant les 3 méthodes: crête (figure A, alpha = 0), lasso (figure B; alpha = 1) et filet élastique (figure C; alpha = 0,5). La solution optimale dépend de …
Les degrés de liberté dans une régression multiple sont égaux à , où k est le nombre de variables.N- k - 1N−k−1N-k-1kkk Est-ce que inclut la variable de réponse (c.-à-d. Y )? Par exemple, dans le modèle Y = B 0 + B 1 X 1 + B 2 X …
Désolé s'il s'agit d'une nouvelle question; J'essaie de m'enseigner les statistiques pour la première fois. Je pense que j'ai la procédure de base, mais j'ai du mal à l'exécuter avec R. Donc, j'essaie d'évaluer la signification des coefficients de régression dans une régression linéaire multiple de forme y^=Xβ^y^=Xβ^ \hat y …
Imaginez qu'un chercheur explore un ensemble de données et exécute 1000 régressions différentes et qu'il trouve entre elles une relation intéressante. Imaginez maintenant qu'un autre chercheur avec les mêmes données exécute une seule régression, et il s'avère que c'est le même que l'autre chercheur a pris 1000 régressions pour trouver. …
Les polynômes orthogonaux dans un ensemble univarié de points sont des polynômes qui produisent des valeurs sur ces points d'une manière telle que son produit scalaire et sa corrélation par paires sont nuls. R peut produire des polynômes orthogonaux avec fonction poly . La même fonction a une variante polym …
J'ai vu des formules sur Wikipédia. qui concernent la distance et l'effet de levier de Mahalanobis: La distance de Mahalanobis est étroitement liée à la statistique de l'effet de levier, , mais a une échelle différente:hhhD2=(N−1)(h−1N).D2=(N−1)(h−1N).D^2 = (N - 1)(h - \tfrac{1}{N}). Dans un article lié , Wikipedia décrit en …
J'ai un grand ensemble de données de marché agrégées sur les ventes de vin aux États-Unis et je voudrais estimer la demande de certains vins de haute qualité. Ces parts de marché sont essentiellement dérivées d'un modèle d'utilité aléatoire de la forme où inclut les caractéristiques de produit observées, désigne …
Lors de l'utilisation de splines cubiques naturelles (c'est-à-dire restreintes), les fonctions de base créées sont hautement colinéaires et, lorsqu'elles sont utilisées dans une régression, semblent produire des statistiques VIF (facteur d'inflation de variance) très élevées, signalant la multicolinéarité. Lorsque l'on considère le cas d'un modèle à des fins de prédiction, …
Est-il possible d'obtenir une corrélation positive entre un régresseur et une réponse ( +0,43) et, par la suite, d'obtenir un coefficient négatif dans le modèle de régression ajusté pour ce régresseur? Je ne parle pas de changements dans le signe du régresseur parmi certains modèles. Le signe du coefficient reste …
Remarque: cette question est une rediffusion, car ma question précédente a dû être supprimée pour des raisons juridiques. En comparant PROC MIXED de SAS avec la fonction lmedu nlmepackage dans R, je suis tombé sur des différences assez confuses. Plus précisément, les degrés de liberté dans les différents tests diffèrent …
Je travaille actuellement sur la construction d'un modèle prédictif pour un résultat binaire sur un ensemble de données avec environ 300 variables et 800 observations. J'ai beaucoup lu sur ce site sur les problèmes liés à la régression pas à pas et pourquoi ne pas l'utiliser. J'ai lu la régression …
Voici un modèle créé à partir d'un mtcarsensemble de données: > ols(mpg~wt+am+qsec, mtcars) Linear Regression Model ols(formula = mpg ~ wt + am + qsec, data = mtcars) Model Likelihood Discrimination Ratio Test Indexes Obs 32 LR chi2 60.64 R2 0.850 sigma 2.4588 d.f. 3 R2 adj 0.834 d.f. 28 …
Des exemples de cette page montrent que la régression simple est nettement affectée par les valeurs aberrantes et cela peut être surmonté par des techniques de régression robuste: http://www.alastairsanderson.com/R/tutorials/robust-regression-in-R/ . Je pense que lmrob et ltsReg sont d'autres techniques de régression robustes. Pourquoi ne devrait-on pas effectuer une régression robuste …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.