Les deux PyTorch et tensorflow Fold sont des cadres d'apprentissage en profondeur destinés à faire face aux situations où les données d'entrée a une longueur non uniforme ou les dimensions (qui est, des situations où des graphiques dynamiques sont utiles ou nécessaires).
Je voudrais savoir comment ils se comparent, dans le sens des paradigmes sur lesquels ils s'appuient (par exemple le batching dynamique) et leurs implications, les choses qui peuvent / ne peuvent pas être implémentées dans chacun, les faiblesses / forces, etc.
J'ai l'intention d'utiliser ces informations pour en choisir une pour commencer à explorer les graphiques de calcul dynamique, mais je n'ai pas de tâche spécifique en tête.
Remarque 1: d'autres cadres de graphiques de calcul dynamiques comme DyNet ou Chainer sont également les bienvenus dans la comparaison, mais je voudrais me concentrer sur PyTorch et Tensorflow Fold parce que je pense qu'ils sont / seront les plus utilisés.
Note 2: J'ai trouvé ce fil hackernews sur PyTorch avec quelques informations clairsemées, mais pas beaucoup.
Remarque 3: Un autre thread hackernews pertinent , à propos de Tensorflow Fold, qui contient des informations sur la façon dont ils se comparent.
Note 4: thread Reddit pertinent .
Note 5: bogue pertinent dans le github de Tensorflow Fold qui identifie une limitation importante: impossibilité de faire un branchement conditionnel pendant l'évaluation.
Note 6: discussion sur le forum pytorch sur les entrées de longueur variable en relation avec les algorithmes utilisés (ex: batch dynamique).