Je suis un débutant en Machine Learning. Dans SVM, l'hyperplan de séparation est défini comme . Pourquoi dit-on vecteur w orthogonal à l'hyperplan de séparation?
Je suis un débutant en Machine Learning. Dans SVM, l'hyperplan de séparation est défini comme . Pourquoi dit-on vecteur w orthogonal à l'hyperplan de séparation?
Réponses:
Géométriquement, le vecteur w est dirigé orthogonal à la ligne définie par . Cela peut être compris comme suit:
Prenez d'abord . Maintenant, il est clair que tous les vecteurs, x , avec un produit intérieur disparaissant avec w satisfont cette équation, c'est-à-dire que tous les vecteurs orthogonaux à w satisfont cette équation.
Maintenant, déplacez l'hyperplan loin de l'origine sur un vecteur a. L'équation pour le plan devient maintenant: , c'est-à-dire que pour le décalage b = a T w , qui est la projection du vecteur a sur le vecteur w .
Sans perte de généralité, nous pouvons donc choisir une perpendiculaire au plan, auquel cas la longueur qui représente la distance orthogonale la plus courte entre l'origine et l'hyperplan.
Par conséquent, le vecteur est dit orthogonal à l'hyperplan de séparation.
La raison pour laquelle est normal à l'hyperplan est parce que nous le définissons de cette façon: