Support Vector Machine fait référence à "un ensemble de méthodes d'apprentissage supervisé connexes qui analysent les données et reconnaissent les modèles, utilisées pour l'analyse de classification et de régression".
J'ai des données qui décrivent la fréquence à laquelle un événement se produit pendant une heure ("nombre par heure", nph) et la durée des événements ("durée en secondes par heure", dph). Ce sont les données d'origine: nph <- c(2.50000000003638, 3.78947368414551, 1.51456310682008, 5.84686774940732, 4.58823529414907, 5.59999999993481, 5.06666666666667, 11.6470588233699, 1.99999999998209, NA, 4.46153846149851, 18, …
j'ai un ensemble de données strictement binaire. l'ensemble de valeurs de chaque variable appartient au domaine: vrai, faux. la propriété "spéciale" de cet ensemble de données est qu'une écrasante majorité des valeurs sont "fausses". j'ai déjà utilisé un algorithme d'apprentissage de réseau bayésien pour apprendre un réseau à partir des …
Mon projet actuel peut m'obliger à construire un modèle pour prédire le comportement d'un certain groupe de personnes. l'ensemble de données de formation ne contient que 6 variables (id est uniquement à des fins d'identification): id, age, income, gender, job category, monthly spend dans laquelle se monthly spendtrouve la variable …
J'expérimente actuellement avec gridsearch pour former une machine à vecteur de support. Je comprends que si j'ai des paramètres gamma et C, la fonction R tune.svm effectue une validation croisée 10 fois pour toutes les combinaisons de ces 2 paramètres. Comme je ne savais pas par où commencer, j'ai essayé …
J'essaie de faire du SVM à une classe dans R. J'ai essayé d'utiliser le package kernlab e1071 / ksvm. Mais je ne sais pas si je le fais correctement. Existe-t-il un exemple de travail pour SVM à une classe dans R? Aussi, Je donne une grande matrice de prédicteurs sous …
J'ai un petit ensemble de données déséquilibrées (70 positives, 30 négatives), et j'ai joué avec la sélection de modèle pour les paramètres SVM en utilisant BAC (précision équilibrée) et AUC (zone sous la courbe). J'ai utilisé différents poids de classe pour le paramètre C dans libSVM pour compenser les données …
J'ai lu que pour le SVM Maximal Margin Classifier, après avoir résolu le double problème, la plupart des multiplicateurs de décalage se révèlent être des zéros. Seuls ceux correspondant aux vecteurs supports se révèlent positifs. Pourquoi donc?
Les méthodes d'apprentissage à noyaux multiples visent à construire un modèle de noyau où le noyau est une combinaison linéaire de noyaux à base fixe. L'apprentissage du noyau consiste alors à apprendre les coefficients de pondération pour chaque noyau de base, plutôt que d'optimiser les paramètres du noyau d'un seul …
J'implémente un classificateur SVM non linéaire avec le noyau RBF. On m'a dit que la seule différence avec un SVM normal était que je devais simplement remplacer le produit scalaire par une fonction du noyau: Je sais comment fonctionne un SVM linéaire normal, c'est-à-dire qu'après avoir résolu le problème d'optimisation …
J'ai deux groupes de 10 participants qui ont été évalués trois fois au cours d'une expérience. Pour tester les différences entre les groupes et entre les trois évaluations, j'ai exécuté une ANOVA de conception mixte 2x3 avec group(contrôle, expérimental), time(premier, deuxième, trois) et group x time. Les deux timeet grouprésulté …
J'essaie d'implémenter la régularisation du manifold dans les machines à vecteurs de support (SVM) dans Matlab. Je suis les instructions du document de Belkin et al. (2006), il y a l'équation: f∗=argminf∈Hk∑li=1V(xi,yi,f)+γA∥f∥2A+γI∥f∥2If∗=argminf∈Hk∑i=1lV(xi,yi,f)+γA‖f‖A2+γI‖f‖I2f^{*} = \text{argmin}_{f \in H_k}\sum_{i=1}^{l}V\left(x_i,y_i,f\right)+\gamma_{A}\left\| f \right\|_{A}^{2}+\gamma_{I}\left\| f \right\|_{I}^{2} où V est une fonction de perte et γAγA\gamma_A est …
Je calcule des probabilités conditionnelles et des intervalles de confiance à 95% associés. Pour bon nombre de mes cas, j'ai un décompte simple des xsuccès des nessais (à partir d'un tableau de contingence), donc je peux utiliser un intervalle de confiance binomial, tel que celui fourni par binom.confint(x, n, method='exact')dans …
J'utilise la régression vectorielle de support pour modéliser certaines données assez asymétriques (avec un kurtosis élevé). J'ai essayé de modéliser les données directement, mais je reçois des prédictions erronées, je pense principalement en raison de la distribution des données, qui est faussée à droite avec des queues très grasses. Je …
Je me souviens avoir vu / lu quelque part que pour les SVM multiclasses avec des données non équilibrées, il y avait un moyen de déterminer les poids de classe à partir des données de formation (plutôt que la validation X). Quelqu'un sait-il quelle est la méthode ou de quel …
J'ai lu sur cet échange une méthode heuristique d'estimation du gamma pour le noyau rbf dans les SVM. Je me demandais si quelqu'un pourrait me l'expliquer plus en détail? Je crois que vous sélectionnez 1000 (ou un grand nombre) de paires de points de données dans l'ensemble de données, puis …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.