Questions marquées «linear-model»

Désigne tout modèle dans lequel une variable aléatoire est liée à une ou plusieurs variables aléatoires par une fonction linéaire dans un nombre fini de paramètres.


9
Quand est-il possible de supprimer l'interception dans un modèle de régression linéaire?
J'utilise des modèles de régression linéaire et me demande quelles sont les conditions pour supprimer le terme d'interception. En comparant les résultats de deux régressions différentes où l’une a l’interception et l’autre pas, je remarque que le de la fonction sans interception est beaucoup plus élevé. Y a-t-il certaines conditions …

2
L'élimination du terme d'interception statistiquement significatif augmente dans le modèle linéaire
Dans un modèle linéaire simple avec une seule variable explicative, αi=β0+β1δi+ϵiαi=β0+β1δi+ϵi\alpha_i = \beta_0 + \beta_1 \delta_i + \epsilon_i Je trouve que la suppression du terme d'interception améliore grandement l'ajustement (la valeur de va de 0,3 à 0,9). Cependant, le terme d'interception semble être statistiquement significatif.R2R2R^2 Avec interception: Call: lm(formula = …


4
PCA et proportion de variance expliquée
En général, que veut dire que la fraction de la variance dans une analyse comme ACP est expliquée par la première composante principale? Est-ce que quelqu'un peut expliquer cela intuitivement, mais aussi donner une définition mathématique précise de ce que "variance expliquée" signifie en termes d'analyse en composantes principales (ACP)?Xxx …

2
Forme de l'intervalle de confiance pour les valeurs prédites dans la régression linéaire
J'ai remarqué que l'intervalle de confiance pour les valeurs prédites dans une régression linéaire tend à être étroit autour de la moyenne du prédicteur et de la graisse autour des valeurs minimale et maximale du prédicteur. Ceci peut être vu dans les graphiques de ces 4 régressions linéaires: Je pensais …

4
Choix entre LM et GLM pour une variable de réponse transformée par un journal
J'essaie de comprendre la philosophie qui sous-tend l'utilisation d'un modèle linéaire généralisé (GLM) par rapport à un modèle linéaire (LM). J'ai créé un exemple de jeu de données ci-dessous où: bûche( y) = x + εbûche⁡(y)=X+ε\log(y) = x + \varepsilon L'exemple n'a pas l'erreur en fonction de la magnitude de …


3
Interprétation du prédicteur et / ou de la réponse transformé par log
Je me demande si cela fait une différence d'interprétation si seules les variables dépendantes, indépendantes et dépendantes, ou uniquement les variables indépendantes sont transformées par un journal. Considérons le cas de log(DV) = Intercept + B1*IV + Error Je peux interpréter l'IV comme l'augmentation en pourcentage, mais comment cela change-t-il …
46 regression  data-transformation  interpretation  regression-coefficients  logarithm  r  dataset  stata  hypothesis-testing  contingency-tables  hypothesis-testing  statistical-significance  standard-deviation  unbiased-estimator  t-distribution  r  functional-data-analysis  maximum-likelihood  bootstrap  regression  change-point  regression  sas  hypothesis-testing  bayesian  randomness  predictive-models  nonparametric  terminology  parametric  correlation  effect-size  loess  mean  pdf  quantile-function  bioinformatics  regression  terminology  r-squared  pdf  maximum  multivariate-analysis  references  data-visualization  r  pca  r  mixed-model  lme4-nlme  distributions  probability  bayesian  prior  anova  chi-squared  binomial  generalized-linear-model  anova  repeated-measures  t-test  post-hoc  clustering  variance  probability  hypothesis-testing  references  binomial  profile-likelihood  self-study  excel  data-transformation  skewness  distributions  statistical-significance  econometrics  spatial  r  regression  anova  spss  linear-model 

3
D'où vient l'idée fausse selon laquelle Y doit être normalement distribué?
Des sources apparemment réputées affirment que la variable dépendante doit être distribuée normalement: Les hypothèses du modèle: YYY est normalement distribué, les erreurs sont normalement distribuées, ei∼N(0,σ2)ei∼N(0,σ2)e_i \sim N(0,\sigma^2) , et indépendant, et XXX est fixé, et une variance constante σ2σ2\sigma^2 . Penn State, STAT 504 Analyse de données discrètes …


3
Pourquoi la régression polynomiale est-elle considérée comme un cas particulier de régression linéaire multiple?
Si la régression polynomiale modélise les relations non linéaires, comment peut-elle être considérée comme un cas particulier de régression linéaire multiple? Wikipedia note que "Bien que la régression polynomiale adapte un modèle non linéaire aux données, elle est linéaire en tant que problème d’estimation statistique, en ce sens que la …

3
Calculer la variance du coefficient de régression dans la régression linéaire simple
Dans la régression linéaire simple, nous avons , où . J'ai dérivé l'estimateur: où et sont les exemples de moyennes de et .y=β0+β1x+uy=β0+β1x+uy = \beta_0 + \beta_1 x + uu∼iidN(0,σ2)u∼iidN(0,σ2)u \sim iid\;\mathcal N(0,\sigma^2)β1^=∑i(xi−x¯)(yi−y¯)∑i(xi−x¯)2 ,β1^=∑i(xi−x¯)(yi−y¯)∑i(xi−x¯)2 , \hat{\beta_1} = \frac{\sum_i (x_i - \bar{x})(y_i - \bar{y})}{\sum_i (x_i - \bar{x})^2}\ , x¯x¯\bar{x}y¯y¯\bar{y}xxxyyy Maintenant, je …



En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.