Questions marquées «kernel-trick»

Les méthodes du noyau sont utilisées dans l'apprentissage automatique pour généraliser les techniques linéaires aux situations non linéaires, en particulier les SVM, PCA et GP. À ne pas confondre avec [lissage du noyau], pour l'estimation de la densité du noyau (KDE) et la régression du noyau.



1
Kernelized k le plus proche voisin
Je suis nouveau dans les noyaux et j'ai rencontré un problème en essayant de noyauer kNN. Préliminaires J'utilise un noyau polynomiale: K(x,y)=(1+⟨x,y⟩)dK(x,y)=(1+⟨x,y⟩)dK(\mathbf{x},\mathbf{y}) = (1 + \langle \mathbf{x},\mathbf{y} \rangle)^d Votre kNN euclidien typique utilise la métrique de distance suivante: d(x,y)=||x−y||d(x,y)=||x−y||d(\mathbf{x}, \mathbf{y}) = \vert\vert \mathbf{x} - \mathbf{y} \vert\vert Soit mapper x dans …





1
Efficacité de la régression de Kernel Ridge
La régression de crête peut être exprimée par où est l'étiquette prédite , la matrice d'identification , l'objet pour lequel nous essayons de trouver une étiquette, et la matrice de objets tel que: Y IddxdxXnxdnxi=(xi,1,...,Xi,j)∈Rdy^= ( X′X +a Iré)- 1X xy^=(X′X+aId)−1Xx\hat{y} = (\mathbf{X'X} + a\mathbf{I}_d)^{-1}\mathbf{X}xy^y^\hat{y}jeréId\mathbf{I}_dré× dd×dd \times dXx\mathbf{x}XX\mathbf{X}n × dn×dn …

1
Comment amorcer un perceptron simple?
Les problèmes de classification avec des limites non linéaires ne peuvent pas être résolus par un simple perceptron . Le code R suivant est à des fins d'illustration et est basé sur cet exemple en Python): nonlin <- function(x, deriv = F) { if (deriv) x*(1-x) else 1/(1+exp(-x)) } X …



2
Quelle méthode du noyau donne les meilleures sorties de probabilité?
Récemment, j'ai utilisé la mise à l'échelle de Platt des sorties SVM pour estimer les probabilités d'événements par défaut. Des alternatives plus directes semblent être la «régression logistique du noyau» (KLR) et la «machine d'importation de vecteurs» associée. Quelqu'un peut-il dire quelle méthode du noyau donnant des sorties de probabilité …



1
R régression linéaire variable catégorielle valeur «cachée»
Ceci est juste un exemple que j'ai rencontré plusieurs fois, donc je n'ai pas d'échantillons de données. Exécution d'un modèle de régression linéaire dans R: a.lm = lm(Y ~ x1 + x2) x1est une variable continue. x2est catégorique et a trois valeurs, par exemple "Low", "Medium" et "High". Cependant, la …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.