Ceci fait suite à une question précédente. ici :
Modèle de réseau neuronal pour prédire le résultat du traitement
et pourrait être considéré comme se référant à un aspect différent de cette question:
Application des techniques d'apprentissage automatique à de petits échantillons d'études cliniques
Merci à Zach qui a suggéré de republier.
J'ai mis une lecture assez sérieuse sur CART, randomForest, Neural Networks et l'apprentissage automatique en général, j'ai appris sur WEKA et les packages R, vu et suivi les conférences d'ingénierie de Stanford http://www.ml-class.org/ cours / classe / index, Je suis 3 chapitres dans Hastie. Compte tenu du type de données que nous voyons régulièrement dans la recherche orientée vers la clinique - charges de paramètres cliniques + charges de paramètres biochimiques + données de test sur stylo et papier +/- données de neuroimagerie avec de petits nombres, j'ai l'impression que je manque quelque chose. Je ne lis pas régulièrement sur les techniques de ML appliquées dans la littérature de recherche. Ma question est la suivante: ai-je juste accroché à quelque chose qui est douteux et donc considéré avec une suspicion justifiée par des cliniciens et des biostatisticiens qui en sont bien conscients, ou ces techniques sont-elles véritablement ignorées ou redoutées en dehors de "l'analyse commerciale"? Qu'est-ce qui la maintient "en niche"?