Statistiques et Big Data

Q & A pour les personnes intéressées par les statistiques, l'apprentissage automatique, l'analyse de données, l'exploration de données et la visualisation de données

4
Pourquoi l'inclusion de latitude et de longitude dans un GAM explique-t-elle l'autocorrélation spatiale?
J'ai produit des modèles additifs généralisés pour la déforestation. Pour prendre en compte l'autocorrélation spatiale, j'ai inclus latitude et longitude en tant que terme d'interaction lissé (c'est-à-dire s (x, y)). Je me suis basé sur la lecture de nombreux articles dans lesquels les auteurs disaient "pour rendre compte de l'autocorrélation …

15
Pourquoi les statistiques paramétriques seraient-elles jamais préférées aux données non paramétriques?
Quelqu'un peut-il m'expliquer pourquoi quelqu'un choisirait-il une méthode statistique paramétrique plutôt qu'une méthode statistique non paramétrique pour le test d'hypothèses ou l'analyse de régression? Dans mon esprit, c'est comme opter pour le rafting et choisir une montre qui ne résiste pas à l'eau, car il se peut que vous ne …




8
Comment puis-je m'assurer que les données de test ne fuient pas dans les données d'entraînement?
Supposons que quelqu'un construise un modèle prédictif, mais que quelqu'un ne connaisse pas nécessairement les principes appropriés des statistiques ou de l'apprentissage automatique. Peut-être aidons-nous cette personne dans son apprentissage, ou peut-être utilise-t-elle une sorte de progiciel dont l'utilisation requiert un minimum de connaissances. Maintenant, cette personne pourrait très bien …



2
Quelle est la différence entre le blanchiment ZCA et le blanchiment PCA?
Je suis confus quant au blanchiment ZCA et au blanchiment normal (obtenu en divisant les composants principaux par les racines carrées des valeurs propres de la PCA). Pour autant que je sache, xZCAwhite=UxPCAwhite,xZCAwhite=UxPCAwhite,\mathbf x_\mathrm{ZCAwhite} = \mathbf U \mathbf x_\mathrm{PCAwhite}, où sont les vecteurs propres de la PCA.UU\mathbf U Quelles sont …

3
Pourquoi l’estimation de la crête devient-elle meilleure que celle des MCO en ajoutant une constante à la diagonale?
Je comprends que l’estimation de la régression de crête est la qui minimise la somme résiduelle du carré et une pénalité sur la taille deβββ\betaββ\beta βridge=(λID+X′X)−1X′y=argmin[RSS+λ∥β∥22]βridge=(λID+X′X)−1X′y=argmin⁡[RSS+λ‖β‖22]\beta_\mathrm{ridge} = (\lambda I_D + X'X)^{-1}X'y = \operatorname{argmin}\big[ \text{RSS} + \lambda \|\beta\|^2_2\big] Cependant, je ne comprends pas tout à fait la signification du fait que …






En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.