Questions marquées «pytorch»

1
PyTorch vs Tensorflow Fold
Les deux PyTorch et tensorflow Fold sont des cadres d'apprentissage en profondeur destinés à faire face aux situations où les données d'entrée a une longueur non uniforme ou les dimensions (qui est, des situations où des graphiques dynamiques sont utiles ou nécessaires). Je voudrais savoir comment ils se comparent, dans …

2
À quoi sert torch.no_grad dans pytorch?
Je suis nouveau sur pytorch et j'ai commencé avec ce code github. Je ne comprends pas le commentaire de la ligne 60-61 du code "because weights have requires_grad=True, but we don't need to track this in autograd". J'ai compris que nous mentionnons requires_grad=Trueles variables dont nous avons besoin pour calculer …
21 pytorch 


1
PyTorch vs Tensorflow désireux
Google a récemment inclus dans tensorflow's nightly builds son Eager mode, une API impérative pour accéder aux capacités de calcul tensorflow. Comment tensorflow désireux se compare-t-il à PyTorch? Certains aspects qui pourraient affecter la comparaison pourraient être: Avantages et inconvénients de désireux en raison de son héritage graphique statique (par …

2
Comportement étrange avec Adam optimizer lors d'un entraînement trop long
J'essaie de former un seul perceptron (1000 unités d'entrée, 1 sortie, pas de couches cachées) sur 64 points de données générés de manière aléatoire. J'utilise Pytorch en utilisant l'optimiseur Adam: import torch from torch.autograd import Variable torch.manual_seed(545345) N, D_in, D_out = 64, 1000, 1 x = Variable(torch.randn(N, D_in)) y = …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.