Questions marquées «kernel-trick»

Les méthodes du noyau sont utilisées dans l'apprentissage automatique pour généraliser les techniques linéaires aux situations non linéaires, en particulier les SVM, PCA et GP. À ne pas confondre avec [lissage du noyau], pour l'estimation de la densité du noyau (KDE) et la régression du noyau.

4
Comment projeter un nouveau vecteur sur l'espace PCA?
Après avoir effectué l'analyse des composants principaux (PCA), je souhaite projeter un nouveau vecteur sur l'espace PCA (c'est-à-dire trouver ses coordonnées dans le système de coordonnées PCA). J'ai calculé PCA en langage R en utilisant prcomp. Maintenant, je devrais pouvoir multiplier mon vecteur par la matrice de rotation PCA. Les …
21 r  pca  r  variance  heteroscedasticity  misspecification  distributions  time-series  data-visualization  modeling  histogram  kolmogorov-smirnov  negative-binomial  likelihood-ratio  econometrics  panel-data  categorical-data  scales  survey  distributions  pdf  histogram  correlation  algorithms  r  gpu  parallel-computing  approximation  mean  median  references  sample-size  normality-assumption  central-limit-theorem  rule-of-thumb  confidence-interval  estimation  mixed-model  psychometrics  random-effects-model  hypothesis-testing  sample-size  dataset  large-data  regression  standard-deviation  variance  approximation  hypothesis-testing  variance  central-limit-theorem  kernel-trick  kernel-smoothing  error  sampling  hypothesis-testing  normality-assumption  philosophical  confidence-interval  modeling  model-selection  experiment-design  hypothesis-testing  statistical-significance  power  asymptotics  information-retrieval  anova  multiple-comparisons  ancova  classification  clustering  factor-analysis  psychometrics  r  sampling  expectation-maximization  markov-process  r  data-visualization  correlation  regression  statistical-significance  degrees-of-freedom  experiment-design  r  regression  curve-fitting  change-point  loess  machine-learning  classification  self-study  monte-carlo  markov-process  references  mathematical-statistics  data-visualization  python  cart  boosting  regression  classification  robust  cart  survey  binomial  psychometrics  likert  psychology  asymptotics  multinomial 

3
Appliquer le «truc du noyau» aux méthodes linéaires?
L' astuce du noyau est utilisée dans plusieurs modèles d'apprentissage automatique (par exemple SVM ). Il a été introduit pour la première fois dans le document "Fondements théoriques de la méthode de la fonction potentielle dans l'apprentissage par reconnaissance de formes" en 1964. La définition de wikipedia dit qu'il est …

2
Quelle est la logique de la fonction de covariance de Matérn?
La fonction de covariance de Matérn est couramment utilisée comme fonction de noyau dans le processus gaussien. Il est défini comme ceci Cν(d)=σ221−νΓ(ν)(2ν−−√dρ)νKν(2ν−−√dρ)Cν(d)=σ221−νΓ(ν)(2νdρ)νKν(2νdρ) {\displaystyle C_{\nu }(d)=\sigma ^{2}{\frac {2^{1-\nu }}{\Gamma (\nu )}}{\Bigg (}{\sqrt {2\nu }}{\frac {d}{\rho }}{\Bigg )}^{\nu }K_{\nu }{\Bigg (}{\sqrt {2\nu }}{\frac {d}{\rho }}{\Bigg )}} où ddd est une fonction …





1
Comment comprendre l'effet de RBF SVM
Comment puis-je comprendre ce que fait le noyau RBF dans SVM? Je veux dire que je comprends les maths, mais y a-t-il un moyen d'avoir une idée quand ce noyau sera utile? Les résultats de kNN seraient-ils liés à SVM / RBF puisque le RBF contient des distances vectorielles? Existe-t-il …
17 svm  kernel-trick 


5
Kernel SVM: Je veux une compréhension intuitive de la mise en correspondance avec un espace d'entités de dimension supérieure, et comment cela rend possible la séparation linéaire
J'essaie de comprendre l'intuition derrière les SVM du noyau. Maintenant, je comprends comment fonctionne le SVM linéaire, par lequel une ligne de décision est faite qui divise les données du mieux qu'elle peut. Je comprends également le principe derrière le portage de données vers un espace de dimension supérieure, et …


2
Comment prouver qu'il n'y a pas d'espace d'entité de dimension finie pour le noyau RBF gaussien?
Comment prouver que pour la fonction de base radiale il n'y a pasespace caractéristique de dimension finieHtelle sorte que pendantcertainΦ:Rn→Hnous avonsk(x,y)=⟨Φ(x),Φ(yk(x,y)=exp(−||x−y||2)2σ2)k(x,y)=exp⁡(−||x−y||2)2σ2)k(x, y) = \exp(-\frac{||x-y||^2)}{2\sigma^2})HHHΦ:Rn→HΦ:Rn→H\Phi: \text{R}^n \to H ?k(x,y)=⟨Φ(x),Φ(y)⟩k(x,y)=⟨Φ(x),Φ(y)⟩k(x, y) = \langle \Phi(x), \Phi(y)\rangle




En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.