Supposons que j'ai un classificateur (il pourrait s'agir de n'importe quel classificateur standard comme l'arbre de décision, la forêt aléatoire, la régression logistique, etc.) pour la détection de fraude en utilisant le code ci-dessous
library(randomForest)
rfFit = randomForest(Y ~ ., data = myData, ntree = 400) # A very basic classifier
Say, Y is a binary outcome - Fraud/Not-Fraud
Maintenant, j'ai prédit sur un ensemble de données invisibles .
pred = predict(rfFit, newData)
J'ai ensuite obtenu les commentaires de l'équipe d'enquête sur ma classification et j'ai constaté que j'avais commis une erreur en classant une fraude comme non-fraude (c'est-à-dire un faux négatif ) . Y a-t-il de toute façon que je puisse laisser mon algorithme comprendre qu'il a fait une erreur? c'est-à-dire une façon d'ajouter une boucle de rétroaction à l'algorithme afin qu'il puisse corriger les erreurs?
Une option que je peux penser du haut de ma tête est de construire un adaboost classifier
pour que le nouveau classificateur corrige l'erreur de l'ancien. ou j'ai entendu quelque chose de Incremental Learning
ou Online learning
. Existe-t-il des implémentations (packages) existantes dans R
?
Est-ce la bonne approche? ou Existe-t-il un autre moyen de modifier le modèle au lieu de le construire à partir de zéro?