Questions marquées «least-squares»

Fait référence à une technique d'estimation générale qui sélectionne la valeur du paramètre pour minimiser la différence au carré entre deux quantités, telles que la valeur observée d'une variable, et la valeur attendue de cette observation conditionnée à la valeur du paramètre. Les modèles linéaires gaussiens sont ajustés par les moindres carrés et les moindres carrés est l'idée sous-jacente à l'utilisation de l'erreur quadratique moyenne (MSE) comme moyen d'évaluer un estimateur.

1
R régression linéaire variable catégorielle valeur «cachée»
Ceci est juste un exemple que j'ai rencontré plusieurs fois, donc je n'ai pas d'échantillons de données. Exécution d'un modèle de régression linéaire dans R: a.lm = lm(Y ~ x1 + x2) x1est une variable continue. x2est catégorique et a trois valeurs, par exemple "Low", "Medium" et "High". Cependant, la …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 


2
Les hypothèses des moindres carrés
Supposons la relation linéaire suivante: , où est la variable dépendante, une seule variable indépendante et le terme d'erreur.Y i X i u iOuije= β0+ β1Xje+ ujeYi=β0+β1Xi+uiY_i = \beta_0 + \beta_1 X_i + u_iOuijeYiY_iXjeXiX_iujeuiu_i Selon Stock & Watson (Introduction à l'économétrie; chapitre 4 ), la troisième hypothèse des moindres carrés …




2
OLS est-il efficace asymptotiquement sous hétéroscédasticité
Je sais que l'OLS est non biaisé mais pas efficace sous hétéroscédasticité dans un cadre de régression linéaire. Sur Wikipédia http://en.wikipedia.org/wiki/Minimum_mean_square_error L'estimateur MMSE est asymptotiquement non biaisé et sa distribution converge vers la distribution normale: , où I (x) est l'information Fisher de x. Ainsi, l'estimateur MMSE est asymptotiquement efficace.n--√( …

2
Comment les résidus sont-ils liés aux perturbations sous-jacentes?
Dans la méthode des moindres carrés, nous voulons estimer les paramètres inconnus dans le modèle: Yj=α+βxj+εj(j=1...n)Yj=α+βxj+εj(j=1...n)Y_j = \alpha + \beta x_j + \varepsilon_j \enspace (j=1...n) Une fois que nous avons fait cela (pour certaines valeurs observées), nous obtenons la droite de régression ajustée: Yj=α^+β^x+ej(j=1,...n)Yj=α^+β^x+ej(j=1,...n)Y_j = \hat{\alpha} + \hat{\beta}x +e_j \enspace …

1
Appliquer une régression de crête pour un système d'équations sous-déterminé?
Lorsque , le problème des moindres carrés qui impose une restriction sphérique à la valeur de peut être écrit comme pour un système surdéterminé. \ | \ cdot \ | _2 est la norme euclidienne d'un vecteur.y=Xβ+ey=Xβ+ey = X\beta + eδδ\deltaββ\betamin ∥y−Xβ∥22s.t. ∥β∥22≤δ2min⁡ ‖y−Xβ‖22s.t.⁡ ‖β‖22≤δ2\begin{equation} \begin{array} &\operatorname{min}\ \| y - …

1
Sous quelles hypothèses la méthode des moindres carrés ordinaires donne-t-elle des estimateurs efficaces et non biaisés?
Est-il vrai que selon les hypothèses de Gauss Markov, la méthode des moindres carrés ordinaires donne des estimateurs efficaces et non biaisés? Donc: tE( ut) = 0E(ut)=0E(u_t)=0 pour toutttt t = sE( utus) = σ2E(utus)=σ2E(u_tu_s)=\sigma^2 pourt = st=st=s t ≠ sE( utus) = 0E(utus)=0E(u_tu_s)=0 pourt ≠ st≠st\neq s où sont …

2
Théorème de Gauss-Markov: BLEU et OLS
Je lis sur le théorème de Guass-Markov sur wikipedia , et j'espérais que quelqu'un pourrait m'aider à comprendre le point principal du théorème. Nous supposons qu'un modèle linéaire, sous forme de matrice, est donné par: et nous recherchons le BLEU, .βy= Xβ+ ηy=Xβ+η y = X\beta +\eta βˆβ^ \widehat\beta Conformément …

2

1
Plage de lambda en régression nette élastique
\def\l{|\!|} Étant donné la régression nette élastique minb12||y−Xb||2+αλ||b||22+(1−α)λ||b||1minb12||y−Xb||2+αλ||b||22+(1−α)λ||b||1\min_b \frac{1}{2}\l y - Xb \l^2 + \alpha\lambda \l b\l_2^2 + (1 - \alpha) \lambda \l b\l_1 comment choisir une plage appropriée de λλ\lambda pour la validation croisée? Dans le cas α=1α=1\alpha=1 (régression de crête), la formule dof=∑js2js2j+λdof=∑jsj2sj2+λ\textrm{dof} = \sum_j \frac{s_j^2}{s_j^2+\lambda} peut être …



En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.