Nous avons 8 serveurs API REST-ish avec Nginx utilisant FastCGI avec PHP-FPM pour gérer les demandes. Nous utilisons actuellement la mise en cache FastCGI de Nginx (directives comme fastcgi_cache_path
). Cela signifie que les réponses API sont mises en cache, mais il existe un cache distinct pour chaque serveur.
Existe-t-il un bon moyen de partager le stockage du cache entre les huit serveurs?
Nous avons envisagé d'utiliser Redis comme stockage partagé, mais les modules disponibles semblent nécessiter des changements d'application. Dans certains cas, nous souhaitons peut-être mettre en cache les réponses hors de notre contrôle (via HTTP vers des API externes). Idéalement, un remplacement direct de la mise en cache intégrée Nginx des réponses FastCGI et HTTP serait disponible.