Questions marquées «linear-model»

Désigne tout modèle dans lequel une variable aléatoire est liée à une ou plusieurs variables aléatoires par une fonction linéaire dans un nombre fini de paramètres.

3
L'hypothèse de linéarité dans la régression linéaire n'est-elle qu'une définition de
Je révise la régression linéaire. Le manuel de Greene déclare: Maintenant, bien sûr, il y aura d'autres hypothèses sur le modèle de régression linéaire, telles que E(ϵ|X)=0E(ϵ|X)=0E(\epsilon|X)=0 . Cette hypothèse combinée à l'hypothèse de linéarité (qui définit en fait ϵϵ\epsilon ), structure le modèle. Cependant, l'hypothèse de linéarité en soi …


2
Régression avec variable indépendante inverse
Supposons que j'ai un -vecteur Y de variables dépendantes et un N -vecteur X de variable indépendante. Lorsque Y est tracé contre 1NNNYOuiYNNNXXXYOuiY , je vois qu'il y a une relation linéaire (tendance à la hausse) entre les deux. Maintenant, cela aussi signifie qu'il ya une tendancebaisse linéaire entreYetX.1X1X\frac{1}{X}YYYXXX Maintenant, …


1
Pourquoi Anova () et drop1 () ont-ils fourni des réponses différentes pour les GLMM?
J'ai un GLMM du formulaire: lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) Lorsque j'utilise drop1(model, test="Chi"), j'obtiens des résultats différents de ceux que j'utilise à Anova(model, type="III")partir du package de voiture ou summary(model). Ces deux derniers donnent les mêmes réponses. En utilisant un …
10 r  anova  glmm  r  mixed-model  bootstrap  sample-size  cross-validation  roc  auc  sampling  stratification  random-allocation  logistic  stata  interpretation  proportion  r  regression  multiple-regression  linear-model  lm  r  cross-validation  cart  rpart  logistic  generalized-linear-model  econometrics  experiment-design  causality  instrumental-variables  random-allocation  predictive-models  data-mining  estimation  contingency-tables  epidemiology  standard-deviation  mean  ancova  psychology  statistical-significance  cross-validation  synthetic-data  poisson-distribution  negative-binomial  bioinformatics  sequence-analysis  distributions  binomial  classification  k-means  distance  unsupervised-learning  euclidean  correlation  chi-squared  spearman-rho  forecasting  excel  exponential-smoothing  binomial  sample-size  r  change-point  wilcoxon-signed-rank  ranks  clustering  matlab  covariance  covariance-matrix  normal-distribution  simulation  random-generation  bivariate  standardization  confounding  z-statistic  forecasting  arima  minitab  poisson-distribution  negative-binomial  poisson-regression  overdispersion  probability  self-study  markov-process  estimation  maximum-likelihood  classification  pca  group-differences  chi-squared  survival  missing-data  contingency-tables  anova  proportion 


2
En régression linéaire, pourquoi devrions-nous inclure des termes quadratiques alors que nous ne nous intéressons qu'aux termes d'interaction?
Supposons que je m'intéresse à un modèle de régression linéaire, pour , car je voudrais voir si une interaction entre les deux covariables a un effet sur Y.Yi=β0+β1x1+β2x2+β3x1x2Yi=β0+β1x1+β2x2+β3x1x2Y_i = \beta_0 + \beta_1x_1 + \beta_2x_2 + \beta_3x_1x_2 Dans les notes de cours d'un professeur (avec qui je n'ai pas de contact), …


2
Existe-t-il un moyen élégant / perspicace de comprendre cette identité de régression linéaire pour plusieurs ?
En régression linéaire, je suis tombé sur un résultat délicieux que si nous ajustons le modèle E[Y]=β1X1+β2X2+c,E[Y]=β1X1+β2X2+c,E[Y] = \beta_1 X_1 + \beta_2 X_2 + c, puis, si nous normalisons et données , et ,YYYX1X1X_1X2X2X_2 R2=Cor(Y,X1)β1+Cor(Y,X2)β2.R2=Cor(Y,X1)β1+Cor(Y,X2)β2.R^2 = \mathrm{Cor}(Y,X_1) \beta_1 + \mathrm{Cor}(Y, X_2) \beta_2. Cela me semble être une version à 2 …


1
R régression linéaire variable catégorielle valeur «cachée»
Ceci est juste un exemple que j'ai rencontré plusieurs fois, donc je n'ai pas d'échantillons de données. Exécution d'un modèle de régression linéaire dans R: a.lm = lm(Y ~ x1 + x2) x1est une variable continue. x2est catégorique et a trois valeurs, par exemple "Low", "Medium" et "High". Cependant, la …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 



1
Terme de variance dans la décomposition biais-variance de la régression linéaire
Dans «Les éléments de l'apprentissage statistique», l'expression de la décomposition biais-variance du modèle linéaire est donnée par où est la fonction cible réelle, est la variance de l'erreur aléatoire dans le modèle et est l'estimateur linéaire de .Err(x0)=σ2ϵ+E[f(x0)−Ef^(x0)]2+||h(x0)||2σ2ϵ,Err(x0)=σϵ2+E[f(x0)−Ef^(x0)]2+||h(x0)||2σϵ2,Err(x_0)=\sigma_\epsilon^2+E[f(x_0)-E\hat f(x_0)]^2+||h(x_0)||^2\sigma_\epsilon^2,f(x0)f(x0)f(x_0)σ2ϵσϵ2 \sigma_\epsilon^2y=f(x)+ϵy=f(x)+ϵy=f(x)+\epsilonf^(x)f^(x)\hat f(x)f(x)f(x)f(x) Le terme de variance me trouble ici parce que …

1
Erreurs normalement distribuées et théorème central limite
Dans l'économétrie d'introduction de Wooldridge, il y a une citation: L'argument justifiant la distribution normale des erreurs fonctionne généralement comme ceci: parce que est la somme de nombreux facteurs non observés différents affectant , nous pouvons invoquer le théorème de la limite centrale pour conclure que a une distribution normale …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.