J'essaie de faire un détecteur d'objets qui se produisent très rarement (en images), en prévoyant d'utiliser un classificateur binaire CNN appliqué dans une fenêtre coulissante / redimensionnée. J'ai construit des ensembles d'entraînement et de test positifs / négatifs équilibrés 1: 1 (est-ce une bonne chose à faire dans un tel cas, entre autres?), Et le classificateur se porte bien sur un ensemble de tests en termes de précision. Maintenant, je veux contrôler le rappel / la précision de mon classificateur afin, par exemple, qu'il ne marque pas à tort trop d'occurrences de classe majoritaire.
La solution évidente (pour moi) consiste à utiliser la même perte logistique que celle utilisée actuellement, mais à pondérer différemment les erreurs de type I et de type II en multipliant la perte dans l'un des deux cas sur une constante, qui peut être réglée. Est ce bien?
PS Après réflexion, cela équivaut à pondérer certains échantillons d'entraînement plus que les autres. Ajouter simplement plus d'une classe permettra d'obtenir le même résultat, je pense.