Dans python sklearn, il existe plusieurs algorithmes (par exemple la régression, la forêt aléatoire ... etc.) qui ont le paramètre class_weight pour gérer les données non équilibrées.
Cependant, je ne trouve pas un tel paramètre pour les algorithmes MLLib. Existe-t-il un plan d'implémentation de class_weight pour certains algorithmes MLLib? Ou existe-t-il une approche dans MLLib pour les données non équilibrées? Ou devons-nous réellement gérer tous les échantillonnages ascendants / descendants dans MLLib?
Merci!