Questions marquées «least-squares»

Fait référence à une technique d'estimation générale qui sélectionne la valeur du paramètre pour minimiser la différence au carré entre deux quantités, telles que la valeur observée d'une variable, et la valeur attendue de cette observation conditionnée à la valeur du paramètre. Les modèles linéaires gaussiens sont ajustés par les moindres carrés et les moindres carrés est l'idée sous-jacente à l'utilisation de l'erreur quadratique moyenne (MSE) comme moyen d'évaluer un estimateur.


1
Preuve de la formule LOOCV
D'après An Introduction to Statistical Learning de James et al., L'estimation de validation croisée avec oubli (LOOCV) est définie par CV(n)=1n∑i=1nMSEiCV(n)=1n∑i=1nMSEi\text{CV}_{(n)} = \dfrac{1}{n}\sum\limits_{i=1}^{n}\text{MSE}_i where MSEi=(yi−y^i)2MSEi=(yi−y^i)2\text{MSE}_i = (y_i-\hat{y}_i)^2. Without proof, equation (5.2) states that for a least-squares or polynomial regression (whether this applies to regression on just one variable is unknown …

1
MLE vs moindres carrés dans l'ajustement des distributions de probabilité
L'impression que j'ai eue, sur la base de plusieurs articles, livres et articles que j'ai lus, est que la manière recommandée d'ajuster une distribution de probabilité sur un ensemble de données consiste à utiliser l'estimation du maximum de vraisemblance (MLE). Cependant, en tant que physicien, une manière plus intuitive consiste …

3
Pourquoi ne pas utiliser les «équations normales» pour trouver des coefficients de moindres carrés simples?
J'ai vu cette liste ici et je ne pouvais pas croire qu'il y avait tant de façons de résoudre les moindres carrés. Les «équations normales» sur Wikipédia semblaient être une méthode assez simple: α^β^= y¯- β^X¯,= ∑ni = 1( xje- x¯) ( yje- y¯)∑ni = 1( xje- x¯)2α^=y¯-β^X¯,β^=∑je=1n(Xje-X¯)(yje-y¯)∑je=1n(Xje-X¯)2 {\displaystyle {\begin{aligned}{\hat …

1
Biais variable omis dans la régression logistique vs biais variable omis dans la régression des moindres carrés ordinaires
J'ai une question sur le biais variable omis dans la régression logistique et linéaire. Supposons que j'omet certaines variables d'un modèle de régression linéaire. Imaginez que ces variables omises ne sont pas corrélées avec les variables que j'ai incluses dans mon modèle. Ces variables omises ne biaisent pas les coefficients …

4
Quelle est la relation entre
Je me demandais s'il y avait une relation entre R2R2R^2 et un test F. Habituellement , R2=∑(Y^t−Y¯)2/T−1∑(Yt−Y¯)2/T−1R2=∑(Y^t−Y¯)2/T−1∑(Yt−Y¯)2/T−1R^2=\frac {\sum (\hat Y_t - \bar Y)^2 / T-1} {\sum( Y_t - \bar Y)^2 / T-1} et il mesure la force de la relation linéaire dans la régression. Un test F prouve simplement une …




1
Définition et convergence des moindres carrés itérativement repondérés
J'ai utilisé des moindres carrés itérativement repondérés (IRLS) pour minimiser les fonctions de la forme suivante, J(m)=∑Ni=1ρ(|xi−m|)J(m)=∑i=1Nρ(|xi−m|)J(m) = \sum_{i=1}^{N} \rho \left(\left| x_i - m \right|\right) où NNN est le nombre d'instances de xi∈Rxi∈Rx_i \in \mathbb{R} , m∈Rm∈Rm \in \mathbb{R} est l'estimation robuste que je veux, et ρρ\rho est une fonction …

2
Mesures de l'hétéroscédasticité résiduelle
Ce lien wikipedia répertorie un certain nombre de techniques pour détecter l'hétéroscédasticité des résidus OLS. Je voudrais savoir quelle technique pratique est plus efficace pour détecter les régions affectées par l'hétéroscédasticité. Par exemple, ici, la région centrale du graphique OLS `` Résidus vs ajustés '' semble avoir une variance plus …


1
Pourquoi cette régression N'échoue PAS en raison d'une parfaite multicolinéarité, bien qu'une variable soit une combinaison linéaire d'autres?
Aujourd'hui, je jouais avec un petit ensemble de données et j'ai effectué une régression OLS simple que je m'attendais à échouer en raison d'une parfaite multicolinéarité. Mais ce ne fut pas le cas. Cela implique que ma compréhension de la multicolinéarité est fausse. Ma question est: où je me trompe? …

1
Autres estimateurs non biaisés que le BLEU (solution OLS) pour les modèles linéaires
Pour un modèle linéaire, la solution OLS fournit le meilleur estimateur linéaire sans biais pour les paramètres. Bien sûr, nous pouvons échanger un biais pour une variance plus faible, par exemple la régression des crêtes. Mais ma question concerne l'absence de parti pris. Existe-t-il d'autres estimateurs quelque peu couramment utilisés, …

1
J'ai une ligne de meilleur ajustement. J'ai besoin de points de données qui ne changeront pas ma ligne de meilleur ajustement
Je fais une présentation sur l'ajustement des lignes. J'ai une fonction linéaire simple, . J'essaie d'obtenir des points de données dispersées que je peux mettre dans un nuage de points qui maintiendra ma ligne de meilleur ajustement dans la même équation.y=1x+by=1x+by=1x+b Je serais ravi d'apprendre cette technique dans R ou …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.