Questions marquées «regression»

Techniques d'analyse de la relation entre une (ou plusieurs) variables "dépendantes" et des variables "indépendantes".



5
Comment les principaux composants principaux peuvent-ils conserver le pouvoir prédictif sur une variable dépendante (ou même conduire à de meilleures prédictions)?
Supposons que je courais une régression . Pourquoi en sélectionnant les premiers composants de , le modèle conserve-t-il son pouvoir prédictif sur ?k X YOui∼ XOui∼XY \sim XkkkXXXOuiOuiY Je comprends que du point de vue de la réduction de dimensionnalité / sélection des caractéristiques, si sont les vecteurs propres de …

3
Interprétation de la régularisation des crêtes en régression
J'ai plusieurs questions concernant la pénalité de crête dans le contexte des moindres carrés: βridge=(λID+X′X)−1X′yβridge=(λID+X′X)−1X′y\beta_{ridge} = (\lambda I_D + X'X)^{-1}X'y 1) L'expression suggère que la matrice de covariance de X est rétrécie vers une matrice diagonale, ce qui signifie que (en supposant que les variables sont normalisées avant la procédure) …

2
Corrélation entre les estimateurs OLS pour l'interception et la pente
Dans un modèle de régression simple, y=β0+β1x+ε,y=β0+β1x+ε, y = \beta_0 + \beta_1 x + \varepsilon, les estimateurs OLS et sont corrélés.ββ^OLS0β^0OLS\hat{\beta}_0^{OLS}β^OLS1β^1OLS\hat{\beta}_1^{OLS} La formule de la corrélation entre les deux estimateurs est (si je l'ai dérivée correctement): Corr(β^OLS0,β^OLS1)=−∑ni=1xin−−√∑ni=1x2i−−−−−−−√.Corr⁡(β^0OLS,β^1OLS)=−∑i=1nxin∑i=1nxi2. \operatorname{Corr}(\hat{\beta}_0^{OLS},\hat{\beta}_1^{OLS}) = \frac{-\sum_{i=1}^{n}x_i}{\sqrt{n} \sqrt{\sum_{i=1}^{n}x_i^2} }. Des questions: Quelle est l'explication intuitive de la …

3
Comment modéliser cette distribution de forme étrange (presque un J inversé)
Ma variable dépendante ci-dessous ne correspond à aucune distribution de stock que je sache. La régression linéaire produit des résidus quelque peu anormaux et asymétriques à droite qui se rapportent au Y prédit de manière étrange (2e graphique). Avez-vous des suggestions de transformations ou d'autres façons d'obtenir les résultats les …


2
Comparer les splines de lissage et le loess pour le lissage?
Je souhaite mieux comprendre les avantages / inconvénients de l'utilisation de loess ou d'un spline de lissage pour lisser une courbe. Une autre variation de ma question est de savoir s'il existe un moyen de construire une spline de lissage d'une manière qui produira les mêmes résultats que l'utilisation du …

2
L'intuition derrière la régression logistique
Récemment, j'ai commencé à étudier l'apprentissage automatique, mais je n'ai pas réussi à saisir l'intuition derrière la régression logistique . Voici les faits sur la régression logistique que je comprends. Comme base d'hypothèse, nous utilisons la fonction sigmoïde . Je comprends pourquoi c'est un bon choix, mais pourquoi c'est le …





3
Pourquoi les transformations de puissance ou de journaux ne sont-elles pas beaucoup enseignées dans l'apprentissage automatique?
L'apprentissage automatique (ML) utilise fortement les techniques de régression linéaire et logistique. Elle repose également sur des techniques d'ingénierie (fonction feature transform, kerneletc.). Pourquoi rien au sujet variable transformation(par exemple power transformation) mentionné dans ML? (Par exemple, je n'ai jamais entendu parler de la prise de racine ou du journal …

4
Algorithmes pour la détection d'anomalies de séries chronologiques
J'utilise actuellement AnomalyDetection de Twitter dans R: https://github.com/twitter/AnomalyDetection . Cet algorithme fournit une détection d'anomalies de séries chronologiques pour les données avec saisonnalité. Question: existe-t-il d'autres algorithmes similaires à celui-ci (le contrôle de la saisonnalité n'a pas d'importance)? J'essaie de marquer autant d'algorithmes de séries temporelles que possible sur mes …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.