L'un des avantages de REST est la possibilité de mettre en cache les demandes via des caches http traditionnels (en supposant qu'il s'agit de demandes pouvant être mises en cache).
Lorsque vous avez des demandes uniques, plus grandes, moins fréquemment utilisées et éventuellement différentes (je vais récupérer des éléments a,b,c,d
cette fois-ci et des éléments la a,b,d,e
prochaine fois), vous avez plus de chances que la demande soit un échec de cache et expire à partir d'un cache qui peut être assis quelque part entre vous et la source.
Étant donné les deux ensembles de demandes mentionnés ci-dessus, la deuxième demande peut avoir un taux de réussite du cache de 75% et être beaucoup plus rapide à récupérer e
, plutôt que les quatre choses.
Notez que cela peut ne pas être immédiatement apparent pour les personnes qui l'utilisent, car la personne qui effectue le premier ensemble de demandes de cache manquera toujours le cache manquera.
Cela ne veut pas dire qu'il serait idéal sur une connexion réseau mobile où l'on est moins susceptible d'obtenir des accès de cache non locaux. Mais pour les points chauds ou d'autres situations wifi, les accès au cache pourraient être beaucoup plus utiles.
Encore une fois, cela dépend en grande partie du fonctionnement de votre application. Demande-t-il toutes ces données au démarrage? ou parlons-nous d'un chargement de page où les attentes de temps de réponse sont différentes?
L'idéal serait de tester ceci pour voir comment votre application se forme dans une variété de situations. Envisagez de configurer une situation où vous avez lié votre appareil mobile à un réseau wifi local que vous pouvez surveiller (ce n'est que le premier coup sur google) et simuler une mauvaise connexion Internet pour voir comment les choses fonctionnent réellement (ou pas) et lequel a les meilleures performances.