Quiz: Dire au classificateur par sa frontière de décision


17

Voici les 6 limites de décision ci-dessous. Les limites de décision sont des lignes violettes. Les points et les croix sont deux ensembles de données différents. Nous devons décider lequel est:

  • SVM linéaire
  • SVM noyé (noyau polynomial d'ordre 2)
  • Perceptron
  • Régression logistique
  • Réseau de neurones (1 couche cachée avec 10 unités linéaires rectifiées)
  • Réseau de neurones (1 couche cachée avec 10 unités tanh)

J'aimerais avoir les solutions. Mais plus important encore, comprenez les différences. Par exemple, je dirais que c) est un SVM linéaire. La frontière de décision est linéaire. Mais nous pouvons également homogénéiser les coordonnées de la frontière de décision SVM linéaire. d) SVM nucléisé, car il est d'ordre polynomial 2. f) Réseau neuronal rectifié en raison des bords "rugueux". Peut-être a) régression logistique: c'est aussi un classifieur linéaire, mais basé sur des probabilités.

Limites de décision


1
Veuillez ajouter la [self-study]balise et lire son wiki . Nous vous fournirons des conseils pour vous aider à vous décoller.
gung - Rétablir Monica

Mais ce n'est pas un exercice que je dois soumettre. J'ai lu le post d'autoformation, mais je pense que mon post est ok? J'ai inclus ma propre pensée et j'y ai aussi pensé. Je pense que cet exemple est peut-être également intéressant pour d'autres.
Miau Piau

1
Merci d'avoir ajouté la balise. Cela ne doit pas être un exercice pour que notre politique s'applique. C'est une bonne question; Je l'ai voté et n'ai pas voté pour fermer.
gung - Rétablir Monica

1
Il pourrait être utile d'expliquer ce que les graphiques montrent. Je pense que les points sont les deux ensembles de données qui sont utilisés pour la formation, et la ligne est la frontière entre les zones où un nouveau point serait classé dans l'un ou l'autre groupe. Est-ce correct?
Andy Clifton

1
C'est probablement la meilleure question que j'ai vue sur n'importe quelle carte Stackoverflow / Stackexchange au cours des 5 dernières années. Étonnamment, il y aurait des jockeys de code Javascript sur Stackoverflow qui fermeraient cette question pour être "trop ​​large".
stackoverflowuser2010

Réponses:


9

Vraiment comme cette question!

La première chose qui me vient à l'esprit est la division entre les classificateurs linéaires et non linéaires. Trois classificateurs sont linéaires (svm linéaire, perceptron et régression logistique) et trois graphiques montrent une frontière de décision linéaire ( A , B , C ). Commençons donc par ceux-ci.

Linéaire

Le tracé linéaire le plus sallient est le tracé B car il a une ligne avec une pente. C'est étrange pour la régression logistique et svm car ils peuvent améliorer davantage leurs fonctions de perte en étant une ligne plate (c'est-à-dire en étant plus loin de (tous) les points). Ainsi, le tracé B est le perceptron. Puisque la sortie du perceptron est soit 0 soit 1, toutes les solutions qui séparent une classe de l'autre sont également bonnes. C'est pourquoi il ne s'améliore pas davantage.

La différence entre l'intrigue _A) et C est plus subtile. La limite de décision est légèrement plus faible dans la parcelle A . Un SVM comme un nombre fixe de vecteurs de support tandis que la fonction de perte de régression logistique est déterminée tous les points. Puisqu'il y a plus de croix rouges que de points bleus, la régression logistique évite les croix rouges plus que les points bleus. Le SVM linéaire essaie juste d'être aussi loin des vecteurs de support rouges que des vecteurs de support bleus. C'est pourquoi le tracé A est la limite de décision de la régression logistique et le tracé C est fait à l'aide d'un SVM linéaire.

Non linéaire

Continuons avec les tracés non linéaires et les classificateurs. Je suis d'accord avec votre observation que le tracé F est probablement le ReLu NN car il a les limites les plus nettes. Une unité ReLu car activée à la fois si l'activation dépasse 0 et cela fait que l'unité de sortie suit une ligne linéaire différente. Si vous regardez vraiment, vraiment bien, vous pouvez repérer environ 8 changements de direction sur la ligne, donc probablement 2 unités ont peu d'impact sur le résultat final. Le tracé F est donc le ReLu NN.

À propos des deux derniers, je n'en suis pas si sûr. Un tanh NN et le SVM polynomial à noyau peuvent avoir plusieurs frontières. Le tracé D est évidemment classé pire. Un tanh NN peut améliorer cette situation en pliant les courbes différemment et en mettant plus de points bleus ou rouges dans la région extérieure. Cependant, ce complot est assez étrange. Je suppose que la partie supérieure gauche est classée comme rouge et la partie inférieure droite comme bleue. Mais comment est classée la partie médiane? Il doit être rouge ou bleu, mais l'une des limites de décision ne doit pas être tracée. La seule option possible est donc que les parties extérieures soient classées comme une couleur et la partie intérieure comme l'autre couleur. C'est étrange et vraiment mauvais. Je ne suis donc pas sûr de celui-ci.

Le regard de déposons sur le terrain E . Il a des lignes courbes et droites. Pour un SVM à noyau degré 2, il est difficile (presque impossible) d'avoir une frontière de décision en ligne droite, car la distance au carré favorise progressivement 1 des 2 classes. Les fonctions d'activation de tanh peuvent être saturées de telle sorte que l'état caché est composé de 0 et de 1. Dans le cas, alors seulement 1 unité change alors son état pour dire 0,5, vous pouvez obtenir une limite de décision linéaire. Je dirais donc que le tracé E est un tanh NN et donc le tracé D est un SVM noyau. Tant pis pour le pauvre vieux SVM.

Conclusions

A - Régression logistique
B - Perceptron
C - SVM linéaire
D - SVM noyé (noyau polynomial d'ordre 2)
E - Réseau neuronal (1 couche cachée avec 10 unités de tanh)
F - Réseau neuronal (1 couche cachée avec 10 unités linéaires rectifiées)


Merci pour la réponse très gentille. J'aime aussi la question. Il donne une nouvelle perspective sur les classificateurs. SVM a une marge maximale et il est donc logique que la ligne soit au milieu des données. Mais pourquoi est-ce également vrai pour la régression logistique?
Miau Piau

Tu veux dire pourquoi c'est droit? Ou pourquoi c'est au milieu?
Pieter

Vous dites "ils peuvent améliorer davantage leurs fonctions de perte en étant une ligne plate" - pourquoi est-ce pour la régression logistique?
Miau Piau

1
En théorie, c'est la meilleure solution car une ligne inclinée diminuerait la probabilité correcte de la classe la plus proche plus rapidement qu'elle n'augmenterait la probabilité de la classe la plus éloignée.
Pieter
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.