Statistiques et Big Data

Q & A pour les personnes intéressées par les statistiques, l'apprentissage automatique, l'analyse de données, l'exploration de données et la visualisation de données

12
Exemples réels de distributions avec asymétrie négative
Inspiré par des " exemples concrets de distributions communes ", je me demande quels exemples pédagogiques les gens utilisent pour démontrer une asymétrie négative? Il existe de nombreux exemples "canoniques" de distributions symétriques ou normales utilisées dans l'enseignement - même si celles comme la taille et le poids ne survivent …

2
Qu'est-ce que l'apprentissage par renforcement récurrent
Je suis récemment tombé sur le mot «apprentissage par renforcement récurrent». Je comprends ce qu'est un «réseau neuronal récurrent» et ce qu'est un «apprentissage par renforcement», mais je n'ai pas trouvé beaucoup d'informations sur ce qu'est un «apprentissage par renforcement récurrent». Quelqu'un peut-il m'expliquer ce qu'est un «apprentissage par renforcement …



5
Motivation de l'algorithme de maximisation des attentes
Dans l'approche de l'algorithme EM, nous utilisons l'inégalité de Jensen pour arriver àlogp(x|θ)≥∫logp(z,x|θ)p(z|x,θ(k))dz−∫logp(z|x,θ)p(z|x,θ(k))dzlog⁡p(x|θ)≥∫log⁡p(z,x|θ)p(z|x,θ(k))dz−∫log⁡p(z|x,θ)p(z|x,θ(k))dz\log p(x|\theta) \geq \int \log p(z,x|\theta) p(z|x,\theta^{(k)}) dz - \int \log p(z|x,\theta) p(z|x,\theta^{(k)})dz et définir par \ theta ^ {(k + 1)} = \ arg \ max _ {\ theta} \ int \ log p (z, x | …

2
Algorithme EM implémenté manuellement
Je veux implémenter l'algorithme EM manuellement, puis le comparer aux résultats normalmixEMdu mixtoolspackage. Bien sûr, je serais heureux si les deux aboutissaient aux mêmes résultats. La référence principale est Geoffrey McLachlan (2000), Finite Mixture Models . J'ai une densité de mélange de deux gaussiens, sous forme générale, la log-vraisemblance est …

3
Test de séparabilité linéaire
Existe-t-il un moyen de tester la séparabilité linéaire d'un ensemble de données à deux classes dans des dimensions élevées? Mes vecteurs de caractéristiques mesurent 40 ans. Je sais que je peux toujours exécuter des expériences de régression logistique et déterminer le taux de réussite par rapport au taux de fausse …



4
Comment fonctionne une distribution de Poisson lors de la modélisation de données continues et entraîne-t-elle une perte d'informations?
Une collègue analyse certaines données biologiques pour sa thèse avec une mauvaise hétéroscédasticité (figure ci-dessous). Elle est en train de l'analyser avec un modèle mixte mais a toujours des problèmes avec les résidus. La transformation logarithmique des variables de réponse nettoie les choses et sur la base des commentaires sur …

3
Connexion entre la métrique de Fisher et l'entropie relative
Quelqu'un peut-il prouver le lien suivant entre la métrique d'information de Fisher et l'entropie relative (ou divergence KL) d'une manière purement mathématique rigoureuse? D(p(⋅,a+da)∥p(⋅,a))=12gi,jdaidaj+(O(∥da∥3)D(p(⋅,a+da)∥p(⋅,a))=12gi,jdaidaj+(O(‖da‖3)D( p(\cdot , a+da) \parallel p(\cdot,a) ) =\frac{1}{2} g_{i,j} \, da^i \, da^j + (O( \|da\|^3)g i , j = ∫ ∂ i ( log p ( …





En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.