Questions marquées «clustering»

L'analyse de cluster consiste à partitionner les données en sous-ensembles d'objets en fonction de leur «similitude» mutuelle, sans utiliser de connaissances préexistantes telles que les étiquettes de classe. [Les erreurs standard groupées et / ou les échantillons de cluster doivent être étiquetés comme tels; N'utilisez PAS la balise "clustering" pour eux.]

2
Pourquoi un modèle statistique serait-il surchargé s'il était doté d'un énorme ensemble de données?
Mon projet actuel peut m'obliger à construire un modèle pour prédire le comportement d'un certain groupe de personnes. l'ensemble de données de formation ne contient que 6 variables (id est uniquement à des fins d'identification): id, age, income, gender, job category, monthly spend dans laquelle se monthly spendtrouve la variable …
8 modeling  large-data  overfitting  clustering  algorithms  error  spatial  r  regression  predictive-models  linear-model  average  measurement-error  weighted-mean  error-propagation  python  standard-error  weighted-regression  hypothesis-testing  time-series  machine-learning  self-study  arima  regression  correlation  anova  statistical-significance  excel  r  regression  distributions  statistical-significance  contingency-tables  regression  optimization  measurement-error  loss-functions  image-processing  java  panel-data  probability  conditional-probability  r  lme4-nlme  model-comparison  time-series  probability  probability  conditional-probability  logistic  multiple-regression  model-selection  r  regression  model-based-clustering  svm  feature-selection  feature-construction  time-series  forecasting  stationarity  r  distributions  bootstrap  r  distributions  estimation  maximum-likelihood  garch  references  probability  conditional-probability  regression  logistic  regression-coefficients  model-comparison  confidence-interval  r  regression  r  generalized-linear-model  outliers  robust  regression  classification  categorical-data  r  association-rules  machine-learning  distributions  posterior  likelihood  r  hypothesis-testing  normality-assumption  missing-data  convergence  expectation-maximization  regression  self-study  categorical-data  regression  simulation  regression  self-study  self-study  gamma-distribution  modeling  microarray  synthetic-data 

2
Pourquoi seule la valeur moyenne est utilisée dans la méthode de regroupement (K-means)?
Dans les méthodes de clustering telles que K-means , la distance euclidienne est la métrique à utiliser. Par conséquent, nous calculons uniquement les valeurs moyennes au sein de chaque cluster. Et puis des ajustements sont effectués sur les éléments en fonction de leur distance à chaque valeur moyenne. Je me …

1
Cartes auto-organisées vs k-means du noyau
Pour une application, je souhaite regrouper des données (potentiellement de grande dimension) et extraire la probabilité d'appartenir à un cluster. Je considère en ce moment des cartes auto-organisées ou des k-moyens du noyau pour faire le travail. Quels sont les avantages et les inconvénients de chaque classificateur pour cette tâche? …

2
Résultats négatifs des critères de regroupement
J'ai effectué un regroupement de points de coordonnées (longitude, latitude) et trouvé des résultats surprenants et négatifs à partir de critères de regroupement pour le nombre optimal de clusters. Les critères sont tirés du clusterCrit()package. Les points que j'essaie de regrouper sur un graphique (les caractéristiques géographiques de l'ensemble de …
8 r  clustering 

1
Analyser un match de football: des joueurs similaires avec DBSCAN et des trajectoires similaires avec TRACLUS
J'essaie d'analyser un ensemble de données qui provient de capteurs situés près des chaussures des joueurs dans un match ( http://www.orgs.ttu.edu/debs2013/index.php?goto=cfchallengedetails ). J'ai décidé de regarder le clustering pour identifier: Trajectoires similaires des joueurs dans le match en utilisant l' algorithme de clustering TRACLUS Joueurs similaires en comptant certaines caractéristiques …

3
Détection de clusters dans une séquence binaire
J'ai une séquence binaire telle que 11111011011110101100000000000100101011011111101111100000000000011010100000010000000011101111 Où les grappes de la plupart des 1 sont suivies d'un plus grand nombre de zéros, comme dans l'image ci-dessous (noir signifie 1): Je voudrais appliquer une technique (de préférence en R ou en Python) où je peux détecter automatiquement ces grappes de …


3
Test post hoc dans une conception mixte 2x3 ANOVA utilisant SPSS?
J'ai deux groupes de 10 participants qui ont été évalués trois fois au cours d'une expérience. Pour tester les différences entre les groupes et entre les trois évaluations, j'ai exécuté une ANOVA de conception mixte 2x3 avec group(contrôle, expérimental), time(premier, deuxième, trois) et group x time. Les deux timeet grouprésulté …
8 anova  mixed-model  spss  post-hoc  bonferroni  time-series  unevenly-spaced-time-series  classification  normal-distribution  discriminant-analysis  probability  normal-distribution  estimation  sampling  classification  svm  terminology  pivot-table  random-generation  self-study  estimation  sampling  estimation  categorical-data  maximum-likelihood  excel  least-squares  instrumental-variables  2sls  total-least-squares  correlation  self-study  variance  unbiased-estimator  bayesian  mixed-model  ancova  statistical-significance  references  p-value  fishers-exact  probability  monte-carlo  particle-filter  logistic  predictive-models  modeling  interaction  survey  hypothesis-testing  multiple-regression  regression  variance  data-transformation  residuals  minitab  r  time-series  forecasting  arima  garch  correlation  estimation  least-squares  bias  pca  predictive-models  genetics  sem  partial-least-squares  nonparametric  ordinal-data  wilcoxon-mann-whitney  bonferroni  wilcoxon-signed-rank  traminer  regression  econometrics  standard-error  robust  misspecification  r  probability  logistic  generalized-linear-model  r-squared  effect-size  gee  ordered-logit  bayesian  classification  svm  kernel-trick  nonlinear  bayesian  pca  dimensionality-reduction  eigenvalues  probability  distributions  mathematical-statistics  estimation  nonparametric  kernel-smoothing  expected-value  filter  mse  time-series  correlation  data-visualization  clustering  estimation  predictive-models  recommender-system  sparse  hypothesis-testing  data-transformation  parametric  probability  summations  correlation  pearson-r  spearman-rho  bayesian  replicability  dimensionality-reduction  discriminant-analysis  outliers  weka 

1
Intervalles de confiance lors de l'utilisation du théorème de Bayes
Je calcule des probabilités conditionnelles et des intervalles de confiance à 95% associés. Pour bon nombre de mes cas, j'ai un décompte simple des xsuccès des nessais (à partir d'un tableau de contingence), donc je peux utiliser un intervalle de confiance binomial, tel que celui fourni par binom.confint(x, n, method='exact')dans …


3
Modèles de mélanges et mélanges de procédés Dirichlet (conférences ou articles pour débutants)
Dans le contexte du clustering en ligne, je trouve souvent de nombreux articles qui parlent de "processus dirichlet" et "modèles de mélange fini / infini". Étant donné que je n'ai jamais utilisé ni lu de processus de dirichlet ou de modèles de mélange. Connaissez-vous des suggestions de conférences d'introduction ou …


1
Quelles sont les principales différences entre les analyses taxométriques (par exemple, MAXCOV, MAXEIG) et les analyses de classe latente?
Des recherches récentes ont tenté de déterminer si certaines constructions psychologiques sont de dimension latente ou taxoniques (c'est-à-dire, y compris les taxons ou les classes). Par exemple, les chercheurs pourraient être intéressés à découvrir s'il existe une certaine «classe» de personnes qui sont plus susceptibles de développer une douleur chronique …



En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.