Règles:
- un classificateur par réponse
- voter si vous êtes d'accord
- downvote / supprimer les doublons.
- mettez votre candidature dans le commentaire
Règles:
Réponses:
Discriminant régularisé pour les problèmes supervisés avec des données bruyantes
Lien vers le document original de 1989 de Friedman et al ici . Il y a aussi une très bonne explication de Kuncheva dans son livre " Combining pattern classifiers ".
Arbres boostés par gradient.
Classificateur de processus gaussien - il donne des prédictions probabilistes (ce qui est utile lorsque vos fréquences opérationnelles de classe relative diffèrent de celles de votre ensemble d'entraînement, ou équivalent vos coûts faux positifs / faux négatifs sont inconnus ou variables). Il fournit également une indication de l'incertitude dans les prévisions du modèle en raison de l'incertitude dans «l'estimation du modèle» à partir d'un ensemble de données fini. La fonction de co-variance est équivalente à la fonction de noyau dans un SVM, elle peut donc également fonctionner directement sur des données non vectorielles (par exemple des chaînes ou des graphiques, etc.). Le cadre mathématique est également soigné (mais n'utilisez pas l'approximation de Laplace). Sélection automatisée du modèle en maximisant la vraisemblance marginale.
Combine essentiellement les bonnes caractéristiques de la régression logistique et du SVM.
Régression logistique régularisée L1.
Cluster K- means pour un apprentissage non supervisé.