Questions marquées «hyperparameter»

Un paramètre qui n'est pas strictement pour le modèle statistique (ou processus de génération de données), mais un paramètre pour la méthode statistique. Il peut s'agir d'un paramètre pour: une famille de distributions antérieures, un lissage, une pénalité dans les méthodes de régularisation, ou un algorithme d'optimisation.

1
Choix d'une taille de mini-lot appropriée pour la descente de gradient stochastique (SGD)
Existe-t-il une littérature qui examine le choix de la taille du mini-lot lors de la descente de gradient stochastique? D'après mon expérience, cela semble être un choix empirique, généralement trouvé via la validation croisée ou en utilisant différentes règles empiriques. Est-ce une bonne idée d'augmenter lentement la taille du mini-lot …






1
Pourquoi des informations sur les données de validation ont-elles été divulguées si j'évalue les performances du modèle sur les données de validation lors du réglage des hyperparamètres?
Dans le Deep Learning de François Chollet avec Python, il est écrit: Par conséquent, le réglage de la configuration du modèle en fonction de ses performances sur l'ensemble de validation peut rapidement entraîner un surajustement de l'ensemble de validation, même si votre modèle n'est jamais directement formé sur celui-ci. La …

1
Quels sont certains des inconvénients de l’optimisation hyperparamétrique bayésienne?
Je suis relativement nouveau dans l'apprentissage automatique et les statistiques, mais je me demandais pourquoi l'optimisation bayésienne n'est pas référée plus souvent en ligne lors de l'apprentissage de l'apprentissage automatique pour optimiser les hyperparamètres de votre algorithme. Par exemple, en utilisant un cadre comme celui-ci: https://github.com/fmfn/BayesianOptimization L'optimisation bayésienne de vos …

1
Comment obtenir des hyperparamètres optimaux après validation croisée imbriquée?
En général, si nous avons un grand ensemble de données, nous pouvons le diviser en (1) formation, (2) validation et (3) test. Nous utilisons la validation pour identifier les meilleurs hyperparamètres en validation croisée (par exemple, C dans SVM), puis nous formons le modèle en utilisant les meilleurs hyperparamètres avec …

1
Sélection hyperparamétrique entièrement bayésienne en GPML
Est-il possible d'effectuer une sélection approximative entièrement bayésienne (1) d'hyper-paramètres (par exemple l'échelle de covariance) avec le code GPML, au lieu de maximiser la vraisemblance marginale (2)? Je pense que l'utilisation de méthodes MCMC pour résoudre les intégrales impliquant des hyper-paramètres avant devrait conduire à de meilleurs résultats en cas …
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.