Pour les non-statisticiens comme moi, il est très difficile de saisir l'idée de VImétrique (variation des informations) même après avoir lu l'article pertinent de Marina Melia " Comparing clusterings - An information based distance " (Journal of Multivariate Analysis, 2007). En fait, je ne connais pas la plupart des termes …
Je participe actuellement au cours An Introduction to Operations Management sur Coursera.org. À un moment donné du cours, le professeur a commencé à faire face à la variation du temps des opérations. La mesure qu'il utilise est le coefficient de variation , le rapport entre l'écart-type et la moyenne: cv=σμcv=σμc_v …
Dans " Réseaux de croyances profondes convolutionnelles pour un apprentissage évolutif et non supervisé des représentations hiérarchiques " par Lee et. ( PDF ) Des DBN convolutifs sont proposés. La méthode est également évaluée pour la classification des images. Cela semble logique, car il existe des caractéristiques naturelles de l'image …
Le mgcvpackage pour Ra deux fonctions pour ajuster les interactions des produits tensoriels: te()et ti(). Je comprends la division de base du travail entre les deux (ajustement d'une interaction non linéaire vs décomposition de cette interaction en effets principaux et interaction). Ce que je ne comprends pas, c'est pourquoi te(x1, …
L'idée derrière le réseau neuronal récurrent (RNN) est claire pour moi. Je le comprends de la manière suivante: nous avons une séquence d'observations ( ) (ou, en d'autres termes, des séries temporelles multivariées). Chaque observation est un vecteur numérique à dimensions. Dans le modèle RNN, nous supposons que la prochaine …
Pourquoi les valeurs de p et les statistiques du test ks diminuent avec l'augmentation de la taille de l'échantillon? Prenez ce code Python comme exemple: import numpy as np from scipy.stats import norm, ks_2samp np.random.seed(0) for n in [10, 100, 1000, 10000, 100000, 1000000]: x = norm(0, 4).rvs(n) y = …
La forme fermée de w dans la régression linéaire peut s'écrire w^=(XTX)−1XTyw^=(XTX)−1XTy\hat{w}=(X^TX)^{-1}X^Ty Comment expliquer intuitivement le rôle de (XTX)−1(XTX)−1(X^TX)^{-1} dans cette équation?
Je sais par des études antérieures que Var(A+B)=Var(A)+Var(B)+2Cov(A,B)Var(A+B)=Var(A)+Var(B)+2Cov(A,B)Var(A+B) = Var(A) + Var(B) + 2 Cov (A,B) Cependant, je ne comprends pas pourquoi. Je peux voir que l'effet sera de «faire monter» la variance lorsque A et B covarient fortement. Il est logique que lorsque vous créez un composite à partir …
Je comprends la mécanique du calcul des poids en utilisant les scores de propension : , puis en appliquant les poids dans une analyse de régression, et que les poids servent à «contrôler» ou dissocier les effets des covariables dans les populations des groupes de traitement et de contrôle avec …
J'ai essayé d'implémenter une estimation numérique de la divergence de Kullback-Leibler pour deux échantillons. Pour déboguer l'implémentation, tirez les échantillons de deux distributions normales et .N ( 1 , 2 )N( 0 , 1 )N(0,1)\mathcal N (0,1)N( 1 , 2 )N(1,2)\mathcal N (1,2) Pour une estimation simple, j'ai généré deux …
Dans un ensemble de problèmes, j'ai prouvé ce «lemme», dont le résultat n'est pas intuitif pour moi. est une distribution normale standard dans un modèle censuré.ZZZ Formellement, et . Ensuite, Il existe donc une sorte de connexion entre la formule d'attente sur un domaine tronqué et la densité au point …
Dans le manuel que je lis, ils utilisent le caractère définitif positif (caractère semi-positif) pour comparer deux matrices de covariance. L'idée étant que si est pd alors est plus petite que . Mais j'ai du mal à avoir l'intuition de cette relation?A−BA−BA-BBBBAAA Il y a un fil similaire ici: /math/239166/what-is-the-intuition-for-using-definiteness-to-compare-matrices …
L'erreur standard d'une proportion sera la plus grande qu'elle puisse être pour un N donné lorsque la proportion en question est de 0,5, et elle diminue plus la proportion est de 0,5. Je peux voir pourquoi il en est ainsi lorsque je regarde l'équation de l'erreur-type d'une proportion, mais je …
Dans plusieurs compétitions de kaggle, la notation était basée sur la "perte de log". Cela concerne l'erreur de classification. Voici une réponse technique mais je recherche une réponse intuitive. J'ai vraiment aimé les réponses à cette question sur la distance de Mahalanobis, mais PCA n'est pas logloss. Je peux utiliser …
Quelqu'un peut-il fournir une explication simple (profane) de la relation entre les distributions de Pareto et le théorème central limite (par exemple, s'applique-t-il? Pourquoi / pourquoi pas?)? J'essaie de comprendre la déclaration suivante: "Le théorème de la limite centrale ne fonctionne pas avec chaque distribution. Cela est dû à un …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.