Est-il possible de contrôler le coût des erreurs de classification dans le package R randomForest ?
Dans mon propre travail, les faux négatifs (par exemple, le fait de manquer par erreur qu'une personne peut avoir une maladie) sont beaucoup plus coûteux que les faux positifs. Le package rpart permet à l'utilisateur de contrôler les coûts de mauvaise classification en spécifiant une matrice de perte pour pondérer différemment les erreurs de classification. Existe-t-il quelque chose de similaire pour randomForest
? Dois-je, par exemple, utiliser l' classwt
option pour contrôler le critère de Gini?
classwt
: Oui, j'ai constaté que dans la pratique, et en ligne avec d'autres utilisateurs, les résultats ne sont pas comme prévu. (iii)cutoff
: Je ne sais pas comment l'utilisercutoff
dans ce cas et je serais heureux de recevoir d'autres conseils.