Questions marquées «covariance»

La covariance est une grandeur utilisée pour mesurer la force et la direction de la relation linéaire entre deux variables. La covariance est non mise à l'échelle, et donc souvent difficile à interpréter; lorsqu'il est mis à l'échelle par les écarts-types des variables, il devient le coefficient de corrélation de Pearson.





9
Comment et pourquoi la normalisation et la mise à l'échelle des fonctionnalités fonctionnent-elles?
Je constate que de nombreux algorithmes d’apprentissage automatique fonctionnent mieux avec une annulation moyenne et une égalisation de covariance. Par exemple, les réseaux de neurones ont tendance à converger plus rapidement et K-Means offre généralement un meilleur clustering avec des fonctionnalités pré-traitées. Je ne vois pas l'intuition derrière ces étapes …

4
Covariance et indépendance?
J'ai lu dans mon manuel que ne garantit pas que X et Y sont indépendants. Mais si elles sont indépendantes, leur covariance doit être égale à 0. Je ne peux encore penser à aucun exemple approprié; quelqu'un pourrait-il en fournir un?cov(X,Y)=0cov(X,Y)=0\text{cov}(X,Y)=0


2
Que dit la matrice inverse de covariance à propos des données? (Intuitivement)
Je suis curieux de connaître la nature de . Quelqu'un peut-il dire quelque chose d'intuitif sur "Que dit propos des données?" Σ - 1Σ−1Σ−1\Sigma^{-1}Σ−1Σ−1\Sigma^{-1} Modifier: Merci pour les réponses Après avoir suivi d'excellents cours, j'aimerais ajouter quelques points: C'est une mesure d'information, c'est-à-dire que est la quantité d'informations le long …

6
Pourquoi le dénominateur de l'estimateur de covariance ne serait-il pas n-2 plutôt que n-1?
Le dénominateur de l'estimateur de variance (non biaisé) est car il y a observations et un seul paramètre est estimé.nn−1n−1n-1nnn V(X)=∑ni=1(Xi−X¯¯¯¯)2n−1V(X)=∑i=1n(Xi−X¯)2n−1 \mathbb{V}\left(X\right)=\frac{\sum_{i=1}^{n}\left(X_{i}-\overline{X}\right)^{2}}{n-1} Dans le même esprit, je me demande pourquoi le dénominateur de la covariance ne serait pas lorsque deux paramètres sont estimés?n−2n−2n-2 Cov(X,Y)=∑ni=1(Xi−X¯¯¯¯)(Yi−Y¯¯¯¯)n−1Cov(X,Y)=∑i=1n(Xi−X¯)(Yi−Y¯)n−1 \mathbb{Cov}\left(X, Y\right)=\frac{\sum_{i=1}^{n}\left(X_{i}-\overline{X}\right)\left(Y_{i}-\overline{Y}\right)}{n-1}


3
Pourquoi l'inversion d'une matrice de covariance donne-t-elle des corrélations partielles entre variables aléatoires?
J'ai entendu dire que l'on pouvait trouver des corrélations partielles entre des variables aléatoires en inversant la matrice de covariance et en prenant les cellules appropriées à partir de cette matrice de précision résultante (ce fait est mentionné dans http://en.wikipedia.org/wiki/Partial_correlation , mais sans preuve). . pourquoi est-ce le cas?

4
Comment garantir les propriétés de la matrice de covariance lors de l'ajustement d'un modèle normal multivarié en utilisant le maximum de vraisemblance?
Supposons que j'ai le modèle suivant yi=f(xi,θ)+εiyi=f(xi,θ)+εiy_i=f(x_i,\theta)+\varepsilon_i où yi∈RKyi∈RKy_i\in \mathbb{R}^K , xixix_i est un vecteur de variables explicatives, θθ\theta est les paramètres de la fonction non linéaire fff et εi∼N(0,Σ)εi∼N(0,Σ)\varepsilon_i\sim N(0,\Sigma) , où ΣΣ\Sigma est naturellement la matrice K×KK×KK\times K Le but est l'habituel d'estimer θθ\theta et ΣΣ\Sigma . Le …




En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.