Vous pouvez souvent écrire un modèle qui correspond à une fonction de perte (ici je vais parler de régression SVM plutôt que de classification SVM; c'est particulièrement simple)
Par exemple, dans un modèle linéaire, si votre fonction de perte est minimisation correspondra à la probabilité maximale pour f ∝ exp ( - a∑jeg( εje) = ∑jeg( yje- x′jeβ)= exp ( - aF∝ exp( - ung( ε ) ) = exp( - ung( y- x′β) ) . (Ici, j'ai un noyau linéaire)
Si je me souviens bien, la régression SVM a une fonction de perte comme celle-ci:
Cela correspond à une densité uniforme au milieu avec des queues exponentielles (comme nous le voyons en exponentiant son négatif, ou un multiple de son négatif).
Il existe une famille de 3 paramètres: l'emplacement des coins (seuil d'insensibilité relative) plus l'emplacement et l'échelle.
C'est une densité intéressante; si je me souviens bien de la lecture de cette distribution particulière il y a quelques décennies, un bon estimateur de l'emplacement car il s'agit de la moyenne de deux quantiles placés symétriquement correspondant à l'emplacement des coins (par exemple, midhinge donnerait une bonne approximation de MLE pour un particulier choix de la constante dans la perte SVM); un estimateur similaire pour le paramètre d'échelle serait basé sur leur différence, tandis que le troisième paramètre correspond essentiellement à déterminer le centile des coins (cela pourrait être choisi plutôt qu'estimé comme c'est souvent le cas pour SVM).
Donc, au moins pour la régression SVM, cela semble assez simple, du moins si nous choisissons d'obtenir nos estimateurs par maximum de vraisemblance.
(Dans le cas où vous êtes sur le point de demander ... Je n'ai aucune référence pour cette connexion particulière à SVM: je viens de résoudre cela maintenant. C'est si simple, cependant, que des dizaines de personnes l'auront réglé avant moi, donc sans aucun doute il y a des références - je n'en ai jamais vu.)