Questions marquées «k-nearest-neighbour»

Classificateurs k-Nearest-Neighbour Ces classificateurs sont basés sur la mémoire et ne nécessitent aucun modèle pour être ajustés. Étant donné un point de requête x0, nous trouvons les k points d'entraînement x (r), r = 1, ..., k les plus proches en distance de x0, puis classons en utilisant le vote majoritaire parmi les k voisins.


2
Comment tracer la frontière de décision d'un classificateur k-plus proche voisin à partir des éléments d'apprentissage statistique?
Je veux générer l'intrigue décrite dans le livre ElemStatLearn "The Elements of Statistical Learning: Data Mining, Inference, and Prediction. Second Edition" de Trevor Hastie & Robert Tibshirani & Jerome Friedman. L'intrigue est: Je me demande comment je peux produire ce graphique exact dans R, notez en particulier les graphiques de …

1
Calcul de la répétabilité des effets d'un modèle lmer
Je viens de tomber sur cet article , qui décrit comment calculer la répétabilité (aka fiabilité, aka corrélation intraclasse) d'une mesure via la modélisation d'effets mixtes. Le code R serait: #fit the model fit = lmer(dv~(1|unit),data=my_data) #obtain the variance estimates vc = VarCorr(fit) residual_var = attr(vc,'sc')^2 intercept_var = attr(vc$id,'stddev')[1]^2 #compute …
28 mixed-model  reliability  intraclass-correlation  repeatability  spss  factor-analysis  survey  modeling  cross-validation  error  curve-fitting  mediation  correlation  clustering  sampling  machine-learning  probability  classification  metric  r  project-management  optimization  svm  python  dataset  quality-control  checking  clustering  distributions  anova  factor-analysis  exponential  poisson-distribution  generalized-linear-model  deviance  machine-learning  k-nearest-neighbour  r  hypothesis-testing  t-test  r  variance  levenes-test  bayesian  software  bayesian-network  regression  repeated-measures  least-squares  change-scores  variance  chi-squared  variance  nonlinear-regression  regression-coefficients  multiple-comparisons  p-value  r  statistical-significance  excel  sampling  sample  r  distributions  interpretation  goodness-of-fit  normality-assumption  probability  self-study  distributions  references  theory  time-series  clustering  econometrics  binomial  hypothesis-testing  variance  t-test  paired-comparisons  statistical-significance  ab-test  r  references  hypothesis-testing  t-test  normality-assumption  wilcoxon-mann-whitney  central-limit-theorem  t-test  data-visualization  interactive-visualization  goodness-of-fit 




1
Complexité de calcul k-NN
Quelle est la complexité temporelle de l' algorithme k -NN avec une approche de recherche naïve (pas d'arbre kd ou similaire)? Je suis intéressé par sa complexité temporelle compte tenu également de l'hyperparamètre k . J'ai trouvé des réponses contradictoires: O (nd + kn), où n est la cardinalité de …


3
Choisir le K optimal pour KNN
J'ai effectué un CV 5 fois pour sélectionner le K optimal pour KNN. Et il semble que plus le K est grand, plus l'erreur est petite ... Désolé je n'avais pas de légende, mais les différentes couleurs représentent différents essais. Il y en a 5 au total et il semble …

2
Pourquoi avez-vous besoin de mettre à l'échelle des données dans KNN
Quelqu'un pourrait-il m'expliquer pourquoi vous devez normaliser les données lors de l'utilisation de K voisins les plus proches. J'ai essayé de chercher ça, mais je n'arrive toujours pas à le comprendre. J'ai trouvé le lien suivant: https://discuss.analyticsvidhya.com/t/why-it-is-necessary-to-normalize-in-knn/2715 Mais dans cette explication, je ne comprends pas pourquoi une plus grande plage …

1
La malédiction dimensionnelle affecte-t-elle certains modèles plus que d'autres?
Les endroits que j'ai lus sur la malédiction de la dimensionnalité l'expliquent conjointement avec kNN principalement et les modèles linéaires en général. Je vois régulièrement les meilleurs classeurs de Kaggle utiliser des milliers d'entités sur un ensemble de données qui ne contient pratiquement pas 100 000 points de données. Ils …

5
Packages d'imputation KNN R
Je recherche un package d'imputation KNN. J'ai regardé le paquet d'imputation ( http://cran.r-project.org/web/packages/imputation/imputation.pdf ) mais pour une raison quelconque, la fonction d'imputation KNN (même en suivant l'exemple de la description) semble seulement pour imputer des valeurs nulles (comme ci-dessous). J'ai regardé autour de moi, mais je ne trouve pas encore …


3
Estimateurs adaptatifs de densité de noyau?
Quelqu'un peut-il rendre compte de son expérience avec un estimateur adaptatif de densité de noyau? (Il existe de nombreux synonymes: adaptatif | variable | largeur variable, KDE | histogramme | interpolateur ...) Une estimation de densité de noyau variable dit "nous faisons varier la largeur du noyau dans différentes régions …


En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.