Questions marquées «k-nearest-neighbour»

Classificateurs k-Nearest-Neighbour Ces classificateurs sont basés sur la mémoire et ne nécessitent aucun modèle pour être ajustés. Étant donné un point de requête x0, nous trouvons les k points d'entraînement x (r), r = 1, ..., k les plus proches en distance de x0, puis classons en utilisant le vote majoritaire parmi les k voisins.

1
Kernelized k le plus proche voisin
Je suis nouveau dans les noyaux et j'ai rencontré un problème en essayant de noyauer kNN. Préliminaires J'utilise un noyau polynomiale: K(x,y)=(1+⟨x,y⟩)dK(x,y)=(1+⟨x,y⟩)dK(\mathbf{x},\mathbf{y}) = (1 + \langle \mathbf{x},\mathbf{y} \rangle)^d Votre kNN euclidien typique utilise la métrique de distance suivante: d(x,y)=||x−y||d(x,y)=||x−y||d(\mathbf{x}, \mathbf{y}) = \vert\vert \mathbf{x} - \mathbf{y} \vert\vert Soit mapper x dans …



1
Avantages de la distance de Jeffries Matusita
Selon certains articles que je lis, la distance de Jeffries et Matusita est couramment utilisée. Mais je n'ai pas trouvé beaucoup d'informations à ce sujet, sauf pour la formule ci-dessous JMD (x, y) =∑(xi−−√2−yi−−√2)2−−−−−−−−−−−−−√2∑(xi2−yi2)22\sqrt[2]{\sum(\sqrt[2]{x_i}-\sqrt[2]{y_i})^2} Elle est similaire à la distance euclidienne à l'exception de la racine carrée E (x, y) …



1
Le théorème du déjeuner gratuit et la cohérence K-NN
Dans l'apprentissage informatique, le théorème de la NFL déclare qu'il n'y a pas d'apprenant universel. Pour chaque algorithme d'apprentissage, il existe une distribution qui amène l'apprenant à émettre une hypotesis avec une grande erreur, avec une probabilité élevée (bien qu'il y ait une hypotesis à faible erreur). La conclusion est …



4
Étant donné une chaîne 10MC MCMC, comment puis-je déterminer son ou ses modes postérieurs dans R?
Question: Avec une chaîne MCMC à 10 dimensions, disons que je suis prêt à vous remettre une matrice des tirages: 100 000 itérations (lignes) par 10 paramètres (colonnes), comment identifier au mieux les modes postérieurs? Je suis particulièrement préoccupé par plusieurs modes. Contexte:Je me considère comme un statisticien averti en …

1
Comprendre kNN pour les données multidimensionnelles
Je comprends la prémisse de l'algorithme kNN pour les données spatiales. Et je sais que je peux étendre cet algorithme à utiliser sur n'importe quelle variable de données continue (ou données nominales avec distance de Hamming). Cependant, quelles stratégies sont utilisées pour traiter des données de dimension supérieure? Par exemple, …


3
KNN: 1 voisin le plus proche
Ma question porte sur le classificateur du plus proche voisin et concerne une déclaration faite dans l'excellent livre The Elements of Statistical Learning, par Hastie, Tibshirani et Friedman. La déclaration est (p. 465, section 13.3): "Parce qu'il utilise uniquement le point d'apprentissage le plus proche du point d'interrogation, le biais …


En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.