Statistiques et Big Data

Q & A pour les personnes intéressées par les statistiques, l'apprentissage automatique, l'analyse de données, l'exploration de données et la visualisation de données


3
Arbres boostés par gradient XGBoost vs Python Sklearn
J'essaie de comprendre comment fonctionne XGBoost. Je comprends déjà comment les arbres boostés par le gradient fonctionnent sur Python sklearn. Ce qui n'est pas clair pour moi, c'est si XGBoost fonctionne de la même manière, mais plus rapidement, ou s'il existe des différences fondamentales entre celui-ci et l'implémentation de python. …


3
Quand les algorithmes génétiques sont-ils un bon choix pour l'optimisation?
Les algorithmes génétiques sont une forme de méthode d'optimisation. Souvent, la descente de gradient stochastique et ses dérivés sont le meilleur choix pour l'optimisation des fonctions, mais des algorithmes génétiques sont encore parfois utilisés. Par exemple, l'antenne du vaisseau spatial ST5 de la NASA a été créée avec un algorithme …


3
Intuition pour l'attente conditionnelle de -algebra
Soit un espace de probabilité, étant donné une variable aléatoire et une -algebra nous pouvons construire une nouvelle variable aléatoire , qui est l'espérance conditionnelle.( Ω , F , μ ) (Ω,F,μ)(\Omega,\mathscr{F},\mu)ξ : Ω → Rξ:Ω→R\xi:\Omega \to \mathbb{R} σ σ\sigmaG ⊆ FG⊆F\mathscr{G}\subseteq \mathscr{F} E [ ξ |G ]E[ξ|G]E[\xi|\mathscr{G}] Quelle est …




3
Erreur de prédiction attendue - dérivation
J'ai du mal à comprendre la dérivation de l'erreur de prédiction attendue ci-dessous (ESL), en particulier sur la dérivation de 2.11 et 2.12 (conditionnement, le pas vers le minimum point par point). Tous les pointeurs ou liens très appréciés. Ci-dessous, je rapporte l'extrait de ESL pg. 18. Les deux premières …

1
Supervision à distance: supervisée, semi-supervisée ou les deux?
La «supervision distante» est un schéma d'apprentissage dans lequel un classificateur est appris en fonction d'un ensemble de formation faiblement étiqueté (les données de formation sont étiquetées automatiquement sur la base d'heuristiques / règles). Je pense que l'apprentissage supervisé et l'apprentissage semi-supervisé peuvent inclure une telle «supervision à distance» si …

1
Comparaison entre SHAP (explication additive de Shapley) et LIME (explications agnostiques du modèle interprétable local)
Je lis environ deux techniques d'interprétabilité de modèles post hoc populaires: LIME et SHAP J'ai du mal à comprendre la principale différence entre ces deux techniques. Pour citer Scott Lundberg , le cerveau derrière SHAP: Les valeurs SHAP viennent avec les avantages d'estimation locale de la boîte noire de LIME, …


1
Quand utiliserait-on l'échantillonnage de Gibbs au lieu de Metropolis-Hastings?
Il existe différents types d'algorithmes MCMC: Metropolis-Hastings Gibbs Échantillonnage d'importance / rejet (lié). Pourquoi utiliser un échantillonnage de Gibbs au lieu de Metropolis-Hastings? Je soupçonne qu'il y a des cas où l'inférence est plus traitable avec l'échantillonnage de Gibbs qu'avec Metropolis-Hastings, mais je ne suis pas clair sur les détails.


En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.