C'est la première fois que je réponds à une question, alors ne m'épinglez pas dessus, mais je pense pouvoir répondre à votre question:
Si vous êtes en effet uniquement intéressé par les performances du modèle et non par des choses comme l'interprétabilité, la forêt aléatoire est en effet souvent un très bon algorithme d'apprentissage, mais fonctionne légèrement moins bien dans les cas suivants:
1.) Lorsque la dimensionnalité (nombre d'entités) est très élevée par rapport au nombre d'échantillons d'apprentissage, dans ces cas, une régression linéaire régularisée ou SVM serait préférable.
2.) Dans le cas où il y a des représentations / structures convolutionnelles d'ordre supérieur dans les données, comme par exemple dans les problèmes de vision par ordinateur. Dans ces cas de vision par ordinateur, un réseau de neurones convolutionnels surclassera une forêt aléatoire (en général, s'il existe des connaissances, on peut les incorporer à l'apprentissage, ce qui est mieux).
Cela étant dit, la forêt aléatoire est un très bon point de départ. L'une des personnes que j'admire pour ses compétences en Machine Learning commence toujours par l'apprentissage d'une forêt aléatoire et d'un régresseur linéaire régularisé.
Cependant, si vous voulez les meilleures performances possibles, je crois que les réseaux de neurones sont connus de nos jours. Le Deep Learning ressemble à une approche très attractive. De plus en plus de gagnants sur des sites Web de défis de données comme Kaggle utilisent des modèles d'apprentissage profond pour la compétition. Un autre avantage des réseaux de neurones est qu'ils peuvent gérer un très grand nombre d'échantillons (> 10 ^ 6, on peut les former en utilisant un gradient stochastique descendant, en alimentant des bits de données à la fois). Personnellement, je trouve que c'est un pro très attractif pour le Deep Learning.