Questions marquées «distance-functions»

Les fonctions de distance font référence aux fonctions utilisées pour quantifier la notion de distance entre les membres d'un ensemble ou entre les objets.



1
Quelle est la fonction de distance optimale pour les individus lorsque les attributs sont nominaux?
Je ne sais pas quelle fonction de distance entre les individus utiliser en cas d'attributs nominaux (catégoriques non ordonnés). Je lisais un manuel et ils suggèrent une fonction de correspondance simple , mais certains livres suggèrent que je devrais changer le nominal en attributs binaires et utiliser le coefficient de …

2
Quelles sont les distances entre les variables constituant une matrice de covariance?
J'ai une matrice de covariance et je souhaite partitionner les variables en clusters en utilisant un clustering hiérarchique (par exemple, pour trier une matrice de covariance).n×nn×nn \times nkkk Existe-t-il une fonction de distance typique entre les variables (c'est-à-dire entre les colonnes / lignes de la matrice de covariance carrée)? Ou …


1
Le théorème du contraste relatif de Beyer et al. papier: «Sur le comportement surprenant des métriques de distance dans l'espace de grande dimension» trompeur?
Ceci est cité très souvent en mentionnant la malédiction de la dimensionnalité et va (formule de droite appelée contraste relatif) limré→ ∞var ( | | Xré| |kE[ | | Xré| |k]) =0,alors: Dmaxkré- Dminkréréminkré→ 0limré→∞var(||Xré||kE[||Xré||k])=0,alors:rémaxrék-réminrékréminrék→0 \lim_{d\rightarrow \infty} \text{var} \left(\frac{||X_d||_k}{E[||X_d||_k]} \right) = 0, \text{then}: \frac{D_{\max^{k}_{d}} - D_{\min^{k}_{d}}}{D_{\min^{k}_{d}}} \rightarrow 0 Le résultat …


1
Comment comparer les événements observés aux événements attendus?
Supposons que j'ai un échantillon de fréquences de 4 événements possibles: Event1 - 5 E2 - 1 E3 - 0 E4 - 12 et j'ai les probabilités attendues que mes événements se produisent: p1 - 0.2 p2 - 0.1 p3 - 0.1 p4 - 0.6 Avec la somme des fréquences …
9 r  statistical-significance  chi-squared  multivariate-analysis  exponential  joint-distribution  statistical-significance  self-study  standard-deviation  probability  normal-distribution  spss  interpretation  assumptions  cox-model  reporting  cox-model  statistical-significance  reliability  method-comparison  classification  boosting  ensemble  adaboost  confidence-interval  cross-validation  prediction  prediction-interval  regression  machine-learning  svm  regularization  regression  sampling  survey  probit  matlab  feature-selection  information-theory  mutual-information  time-series  forecasting  simulation  classification  boosting  ensemble  adaboost  normal-distribution  multivariate-analysis  covariance  gini  clustering  text-mining  distance-functions  information-retrieval  similarities  regression  logistic  stata  group-differences  r  anova  confidence-interval  repeated-measures  r  logistic  lme4-nlme  inference  fiducial  kalman-filter  classification  discriminant-analysis  linear-algebra  computing  statistical-significance  time-series  panel-data  missing-data  uncertainty  probability  multivariate-analysis  r  classification  spss  k-means  discriminant-analysis  poisson-distribution  average  r  random-forest  importance  probability  conditional-probability  distributions  standard-deviation  time-series  machine-learning  online  forecasting  r  pca  dataset  data-visualization  bayes  distributions  mathematical-statistics  degrees-of-freedom 

3
Distance de Mahalanobis entre deux distributions bivariées avec différentes covariances
La question est à peu près contenue dans le titre. Quelle est la distance de Mahalanobis pour deux distributions de matrices de covariance différentes? Ce que j'ai trouvé jusqu'à présent suppose la même covariance pour les deux distributions, c'est-à-dire quelque chose de ce genre: ΔTΣ−1ΔΔTΣ−1Δ\Delta^T \Sigma^{-1} \Delta Que faire si …


2
Divergence de Jensen-Shannon pour les distributions normales bivariées
Étant donné deux distributions normales bivariées P≡N(μp,Σp)P≡N(μp,Σp)P \equiv \mathcal{N}(\mu_p, \Sigma_p) et Q≡N(μq,Σq)Q≡N(μq,Σq)Q \equiv \mathcal{N}(\mu_q, \Sigma_q), J'essaie de calculer la divergence Jensen-Shannon entre eux, définie (pour le cas discret) comme: JSD(P∥Q)=12(KLD(P∥M)+KLD(Q∥M))JSD(P‖Q)=12(KLD(P‖M)+KLD(Q‖M))JSD(P\|Q) = \frac{1}{2} (KLD(P\|M)+ KLD(Q\|M)) où est la divergence Kullback-Leibler, et j'ai trouvé le moyen de calculer en termes de paramètres …
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.