Questions marquées «kernel-trick»

Les méthodes du noyau sont utilisées dans l'apprentissage automatique pour généraliser les techniques linéaires aux situations non linéaires, en particulier les SVM, PCA et GP. À ne pas confondre avec [lissage du noyau], pour l'estimation de la densité du noyau (KDE) et la régression du noyau.



3
Un exemple: régression LASSO utilisant glmnet pour les résultats binaires
Je commence à me familiariser avec l’utilisation de glmnetavec LASSO Regression, où mon résultat d’intérêt est dichotomique. J'ai créé un petit cadre de données fictif ci-dessous: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- …
78 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 





3
Comment prouver que la fonction de base radiale est un noyau?
Comment prouver que la fonction de base radiale est un noyau? Pour autant que je sache, afin de prouver cela, nous devons prouver l'un des éléments suivants:k(x,y)=exp(−||x−y||2)2σ2)k(x,y)=exp⁡(−||x−y||2)2σ2)k(x, y) = \exp(-\frac{||x-y||^2)}{2\sigma^2}) Pour tout ensemble de vecteurs matrice K ( x 1 , x 2 , . . . , X n …
35 svm  kernel-trick 

3
Existe-t-il un problème d'apprentissage supervisé empêchant les réseaux de neurones (profonds) de surpasser les autres méthodes?
J'ai vu des gens mettre beaucoup d'efforts sur SVM et les noyaux, et ils ont l'air très intéressants en tant que débutants en Machine Learning. Mais si nous nous attendons à ce que nous puissions presque toujours trouver une solution plus performante en termes de réseau de neurones (profonds), quelle …


3
Différence entre un SVM et un perceptron
Je suis un peu confus avec la différence entre un SVM et un perceptron. Permettez-moi d'essayer de résumer ma compréhension ici, et n'hésitez pas à corriger où je me trompe et à compléter ce que j'ai manqué. Le Perceptron n'essaie pas d'optimiser la "distance" de séparation. Tant qu'il trouve un …

4
La différence des noyaux dans SVM?
Quelqu'un peut-il me dire la différence entre les noyaux dans SVM: Linéaire Polynôme Gaussien (RBF) Sigmoïde Parce que, comme nous le savons, le noyau est utilisé pour mapper notre espace d'entrée dans un espace de fonctionnalité de haute dimensionnalité. Et dans cet espace caractéristique, nous trouvons la frontière séparable linéairement …

3
Carte des fonctionnalités du noyau gaussien
Dans SVM, le noyau gaussien est défini comme: où x, y \ in \ mathbb {R ^ n} . Je ne connais pas l'équation explicite de \ phi . Je veux le savoir.K( x , y) = exp( - ∥ x - y∥222 σ2) =ϕ(x )Tϕ ( y)K(X,y)=exp⁡(-‖X-y‖222σ2)=ϕ(X)Tϕ(y)K(x,y)=\exp\left({-\frac{\|x-y\|_2^2}{2\sigma^2}}\right)=\phi(x)^T\phi(y)x , y∈ …

3
La descente de gradient est-elle possible pour les SVM noyés (si oui, pourquoi les gens utilisent-ils la programmation quadratique)?
Pourquoi les gens utilisent-ils des techniques de programmation quadratique (comme SMO) lorsqu'ils traitent avec des SVM noyés? Quel est le problème avec Gradient Descent? Est-il impossible de l'utiliser avec des noyaux ou est-ce simplement trop lent (et pourquoi?). Voici un peu plus de contexte: en essayant de mieux comprendre les …

1
Quelle fonction pourrait être un noyau?
Dans le contexte de l'apprentissage automatique et de la reconnaissance des formes, il existe un concept appelé Kernel Trick . Face à des problèmes où l'on me demande de déterminer si une fonction peut être une fonction noyau ou non, que faire exactement? Dois-je d'abord vérifier si elles ont la …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.