Búsqueda de sitios web

Cómo almacenar en caché el contenido en NGINX


NGINX es un servidor web consolidado de código abierto y alto rendimiento que acelera la entrega de contenidos y aplicaciones, mejora la seguridad y mejora la escalabilidad. Uno de los casos de uso más comunes de Nginx es el almacenamiento en caché de contenido, que es la forma más eficaz de mejorar el rendimiento de un sitio web.

Lea también: Las 10 principales herramientas de almacenamiento en caché de código abierto para Linux

Puede utilizar NGINX para acelerar los servidores de origen local configurándolos para almacenar en caché las respuestas de los servidores ascendentes y también para crear servidores perimetrales para redes de entrega de contenido (CDN). NGINX impulsa algunas de las CDN más grandes.

Cuando se configura como caché, NGINX:

  • caché de contenido estático y dinámico.
  • Mejore el rendimiento del contenido dinámico con microcaching.
  • proporcione contenido obsoleto mientras lo revalida en segundo plano para un mejor rendimiento.
  • anular o configurar encabezados de Cache-Control, y más.

En este artículo, aprenderá cómo configurar NGINX como almacenamiento en caché de contenido en Linux para que sus servidores web funcionen de la manera más eficiente posible.

Requisitos previos:

Debería tener NGINX instalado en su servidor Linux; de lo contrario, siga estas guías para instalar Nginx:

  • Cómo instalar Nginx en CentOS 8
  • Cómo instalar Nginx en CentOS 7

Caché de contenido estático en Nginx

El contenido estático es el contenido de un sitio web que permanece igual (no cambia) en todas las páginas. Ejemplos de contenido estático incluyen archivos como imágenes, vídeos, documentos; Archivos CSS y archivos JavaScript.

Si su sitio web utiliza una gran cantidad de contenido estático, puede optimizar su rendimiento habilitando el almacenamiento en caché del lado del cliente donde el navegador almacena copias de contenido estático para un acceso más rápido.

La siguiente configuración de muestra es una buena opción, simplemente reemplace www.example.com con la URL del nombre de su sitio web y realice modificaciones en otros nombres de ruta según corresponda.

server {
    # substitute your web server's URL for www.example.com
    server_name www.example.com;
    root /var/www/example.com/htdocs;
    index index.php;

    access_log /var/log/nginx/example.com.access.log;
    error_log /var/log/nginx/example.com.error.log;

    location / {
        try_files $uri $uri/ /index.php?$args;
    }

    location ~ .php$ {
        try_files $uri =404;
        include fastcgi_params;
        # substitute the socket, or address and port, of your WordPress server
        fastcgi_pass unix:/var/run/php5-fpm.sock;
        #fastcgi_pass 127.0.0.1:9000;
 	}   

    location ~* .(ogg|ogv|svg|svgz|eot|otf|woff|mp4|ttf|css|rss|atom|js|jpg
                  |jpeg|gif|png|ico|zip|tgz|gz|rar|bz2|doc|xls|exe|ppt|tar|mid
                  |midi|wav|bmp|rtf)$ {
        expires max;
        log_not_found off;
        access_log off;
    }
}

Caché de contenido dinámico en Nginx

NGINX utiliza un caché persistente basado en disco ubicado en algún lugar del sistema de archivos local. Así que comience creando el directorio del disco local para almacenar el contenido en caché.
# mkdir -p /var/cache/nginx

A continuación, establezca la propiedad adecuada en el directorio de caché. Debe ser propiedad del usuario NGINX (nginx) y del grupo (nginx) de la siguiente manera.

chown nginx:nginx /var/cache/nginx

Ahora continúe para ver cómo habilitar contenido dinámico en Nginx en la siguiente sección.

Habilitando la caché FastCGI en NGINX

FastCGI (o FCGI) es un protocolo ampliamente utilizado para interconectar aplicaciones interactivas como PHP con servidores web como NGINX. fuerte>. Es una extensión de CGI (Common Gateway Interface).

La principal ventaja de FCGI es que gestiona múltiples solicitudes CGI en un solo proceso. Sin él, el servidor web tiene que abrir un nuevo proceso (que debe controlarse, procesar una solicitud y cerrarse) para cada solicitud de servicio de un cliente.

Para procesar scripts PHP en una implementación de pila LEMP, NGINX usa FPM (FastCGI Process Manager) o PHP-FPM, una popular implementación alternativa de PHP FastCGI. Una vez que el proceso PHP-FPM se está ejecutando, NGINX se configura para enviarle solicitudes para su procesamiento. Por lo tanto, NGINX también se puede configurar para almacenar en caché las respuestas del servidor de aplicaciones backend PHP-FPM.

En NGINX, la caché de contenido FastCGI se declara mediante una directiva llamada fastcgi_cache_path en el http{} de nivel superior. contexto, dentro de la estructura de configuración de NGINX. También puede agregar fastcgi_cache_key que define una clave (identificador de solicitud) para el almacenamiento en caché.

Además, para leer el estado de la caché ascendente, agregue la directiva add_header X-Cache-Status dentro del contexto http{}; esto es útil para fines de depuración.

Suponiendo que el archivo de configuración del bloque del servidor de su sitio se encuentre en /etc/nginx/conf.d/testapp.conf o /etc/nginx/sites-available/testapp.conf ( en Ubuntu y sus derivados), abra el archivo de edición y agregue las siguientes líneas en la parte superior del archivo.

fastcgi_cache_path /var/cache/nginx levels=1:2 keys_zone=CACHEZONE:10m; inactive=60m max_size=40m;
fastcgi_cache_key "$scheme$request_method$host$request_uri";
add_header X-Cache $upstream_cache_status;

La directiva fastcgi_cache_path especifica el número de parámetros que son:

  • /var/cache/nginx: la ruta al directorio del disco local para el caché.
  • niveles: define los niveles de jerarquía de un caché, configura una jerarquía de directorios de dos niveles en /var/cache/nginx.
  • keys_zone (nombre:tamaño): permite la creación de una zona de memoria compartida donde se almacenan todas las claves activas y la información sobre los datos (meta). Tenga en cuenta que almacenar las claves en la memoria acelera el proceso de verificación, al facilitar que NGINX determine si es un MISS o un HIT, sin verificar el estado en el disco.
  • inactivo: especifica la cantidad de tiempo después del cual los datos almacenados en caché a los que no se accede durante el tiempo especificado se eliminan del caché independientemente de su actualización. Un valor de 60m en nuestra configuración de ejemplo significa que los archivos a los que no se acceda después de 60 se eliminarán del caché.
  • max_size: especifica el tamaño máximo de la caché. Hay más parámetros que puede usar aquí (lea la documentación de NGINX para obtener más información).

Las variables de la directiva fastcgi_cache_key se describen a continuación.

NGINX los utiliza para calcular la clave (identificador) de una solicitud. Es importante destacar que para enviar una respuesta almacenada en caché al cliente, la solicitud debe tener la misma clave que una respuesta almacenada en caché.

  • $scheme – esquema de solicitud, HTTP o HTTPS.
  • $request_method: método de solicitud, normalmente “GET” o “POST”.
  • $host: puede ser el nombre de host de la línea de solicitud, o el nombre de host del campo de encabezado de solicitud “Host”, o el nombre del servidor que coincide con una solicitud, en orden de precedencia. .
  • $request_uri: significa el URI de solicitud original completo (con argumentos).

Además, la variable $upstream_cache_status en la directiva add_header X-Cache-Status se calcula para cada solicitud a la que responde NGINX, ya sea una MISS (respuesta no encontrada en el caché, obtenida del servidor de aplicaciones) o un HIT (respuesta servida desde el caché) o cualquiera de los otros valores admitidos.

A continuación, dentro de la directiva location que pasa solicitudes PHP a PHP-FPM, utiliza las directivas fastcgi_cache para activar el caché que acabas de definir anteriormente.

También establezca el tiempo de almacenamiento en caché para diferentes respuestas usando la directiva fastcgi_cache_valid como se muestra.

fastcgi_cache CACHEZONE;
fastcgi_cache_valid  60m;

Si solo se especifica el tiempo de almacenamiento en caché, como en nuestro caso, solo se almacenan en caché las respuestas 200, 301 y 302. Pero también puedes especificar las respuestas explícitamente o usar cualquiera (para cualquier código de respuesta):

fastcgi_cache CACHEZONE;
fastcgi_cache_valid 200  301 203 60m;
fastcgi_cache_valid 404 10m;
OR
fastcgi_cache CACHEZONE;
fastcgi_cache_valid  any 10m;

Ajuste del rendimiento del almacenamiento en caché FastCGI en Nginx

Para establecer el número mínimo de veces que se debe realizar una solicitud con la misma clave antes de que la respuesta se almacene en caché, incluya la directiva fastcgi_cache_min_uses, ya sea en http{} o servidor{} o ubicación{} contexto.

fastcgi_cache_min_uses  3

Para habilitar la revalidación de elementos de caché caducados mediante solicitudes condicionales con los campos de encabezado "If-Modified-Since" y "If-None-Match", agregue el directiva fastcgi_cache_revalidate, dentro del contexto http{} o server{} o ubicación{}.

fastcgi_cache_revalidate on;

También puede indicarle a NGINX que entregue contenido en caché cuando el servidor de origen o el servidor FCGI esté inactivo, usando la directiva proxy_cache_use_stale, dentro de la directiva de ubicación.

Esta configuración de muestra significa que cuando NGINX recibe un error, un tiempo de espera y cualquiera de los errores especificados del servidor ascendente y tiene una versión obsoleta del archivo solicitado en el contenido almacenado en caché, entrega el archivo obsoleto.

proxy_cache_use_stale error timeout http_500;

Otra directiva útil para ajustar el rendimiento del almacenamiento en caché FCGI es fastcgi_cache_background_update que funciona junto con la directiva proxy_cache_use_stale. Cuando está activado, le indica a NGINX que proporcione contenido obsoleto cuando los clientes solicitan un archivo que ha caducado o está en proceso de actualización desde el servidor ascendente.

fastcgi_cache_background_update on;

El fastcgi_cache_lock también es útil para ajustar el rendimiento de la caché, ya que si varios clientes solicitan el mismo contenido que no está en la caché, NGINX reenviará solo la primera solicitud al servidor ascendente, almacenará en caché el La respuesta luego atiende las otras solicitudes de los clientes desde el caché.

fastcgi_cache_lock on;

Después de realizar todos los cambios anteriores en el archivo de configuración NGINX, guárdelo y ciérrelo. Luego verifique la estructura de configuración para detectar errores de sintaxis antes de reiniciar el servicio NGINX.

nginx -t
systemctl restart nginx

A continuación, pruebe si el caché funciona correctamente, intente acceder a su aplicación web o sitio usando el siguiente comando curl (la primera vez debería indicar un MISS, pero las solicitudes posteriores deberían indicar un HIT). como se muestra en la captura de pantalla).

curl -I http://testapp.linux-console.net

Aquí hay otra captura de pantalla que muestra a NGINX entregando datos obsoletos.

Agregar excepciones para omitir la caché

Es posible establecer condiciones bajo las cuales NGINX no debe enviar respuestas almacenadas en caché a los clientes, utilizando la directiva fastcgi_cache_bypass. Y para indicarle a NGINX que no almacene en caché las respuestas del servidor ascendente, use fastcgi_no_cache.

Por ejemplo, si desea que las solicitudes POST y las URL con una cadena de consulta vayan siempre a PHP. Primero, declare una declaración if para establecer la condición de la siguiente manera.

set $skip_cache 0; 
if ($request_method = POST) { 
	set $skip_cache 1; 
} 

Luego active la excepción anterior en la directiva location que pasa solicitudes PHP a PHP-FPM, usando fastcgi_cache_bypass y fastcgi_no_cache directivas.

 
fastcgi_cache_bypass $skip_cache; 
fastcgi_no_cache $skip_cache;

Hay muchas otras partes de su sitio para las que quizás no desee habilitar el almacenamiento en caché de contenido. El siguiente es un ejemplo de configuración de NGINX para mejorar el rendimiento de un sitio de WordPress, proporcionado en el blog nginx.com.

Para usarlo, realice cambios (como el dominio, las rutas, los nombres de archivos, etc.) para reflejar lo que existe en su entorno.

fastcgi_cache_path /var/run/NGINX-cache levels=1:2 keys_zone=WORDPRESS:100m inactive=60m; 
fastcgi_cache_key "$scheme$request_method$host$request_uri"; 
server { 
	server_name example.com www.example.com; 
	root /var/www/example.com; 
	index index.php; 
	access_log /var/log/NGINX/example.com.access.log; 
	error_log /var/log/NGINX/example.com.error.log; 
	set $skip_cache 0; 
	# POST requests and URLs with a query string should always go to PHP 	
	if ($request_method = POST) { 
		set $skip_cache 1; 
	} 
	if ($query_string != "") {
		set $skip_cache 1; 
	} 
	# Don't cache URIs containing the following segments 
	if ($request_uri ~* "/wp-admin/|/xmlrpc.php|wp-.*.php|/feed/|index.php |sitemap(_index)?.xml") { 
		set $skip_cache 1; 
	} 
	# Don't use the cache for logged-in users or recent commenters 
	if ($http_cookie ~* "comment_author|wordpress_[a-f0-9]+|wp-postpass |wordpress_no_cache|wordpress_logged_in") {
		set $skip_cache 1; 
	} 
	location / { 
		try_files $uri $uri/ /index.php?$args; 
	} 
	location ~ .php$ { 
		try_files $uri /index.php; 
		include fastcgi_params; 
		fastcgi_pass unix:/var/run/php5-fpm.sock; 
		fastcgi_cache_bypass $skip_cache; 
		fastcgi_no_cache $skip_cache; 
		fastcgi_cache WORDPRESS; 
		fastcgi_cache_valid 60m; 
	} 
	location ~ /purge(/.*) {
		fastcgi_cache_purge WORDPRESS "$scheme$request_method$host$1"; 
	} 
	location ~* ^.+.(ogg|ogv|svg|svgz|eot|otf|woff|mp4|ttf|css|rss|atom|js|jpg|jpeg |gif|png|ico|zip|tgz|gz|rar|bz2|doc|xls|exe|ppt|tar|mid|midi |wav|bmp|rtf)$ { 
		access_log off; 
		log_not_found off; 
		expires max; 
	} 
	location = /robots.txt { 
		access_log off; 
		log_not_found off; 
	}
	location ~ /. { 
		deny all; 
		access_log off; 
		log_not_found off; 
	} 
}

Habilitar la caché de proxy en NGINX

NGINX también admite el almacenamiento en caché de respuestas de otros servidores proxy (definidos por la directiva proxy_pass). Para este caso de prueba, utilizamos NGINX como proxy inverso para una aplicación web Node.js, por lo que habilitaremos NGINX como caché para la aplicación Node.js. Todas las directivas de configuración utilizadas aquí tienen significados similares a las directivas FastCGI de la sección anterior, por lo que no las explicaremos nuevamente.

Para habilitar el almacenamiento en caché de las respuestas de un servidor proxy, incluya la directiva proxy_cache_path en el contexto http{} de nivel superior. Para especificar cómo se almacenan en caché las solicitudes, también puede agregar la directiva proxy_cache_key de la siguiente manera.

proxy_cache_path /var/cache/nginx app1 keys_zone=PROXYCACHE:100m inactive=60m max_size=500m;
proxy_cache_key  "$scheme$request_method$host$request_uri";
add_header X-Cache-Status $upstream_cache_status;
proxy_cache_min_uses 3;

A continuación, active el caché en la directiva de ubicación.

location / {
	proxy_pass http://127.0.0.1:3000;
	proxy_cache        PROXYCACHE;
	proxy_cache_valid 200 302 10m;
	proxy_cache_valid 404      1m;
}

Para definir las condiciones bajo las cuales NGINX no envía contenido almacenado en caché y no almacena en caché ninguna respuesta del servidor ascendente, incluya proxy_cache_bypass y proxy_no_cache.

 
proxy_cache_bypass  $cookie_nocache $arg_nocache$arg_comment;
proxy_no_cache        $http_pragma $http_authorization;

Ajuste del rendimiento de la caché de proxy

Las siguientes directivas son útiles para ajustar el rendimiento de la caché del proxy. También tienen el mismo significado que las directivas FastCGI.

proxy_cache_min_uses 3;
proxy_cache_revalidate on;
proxy_cache_use_stale error timeout updating http_500;
proxy_cache_background_update on;
proxy_cache_lock on;

Para obtener más información y directivas de configuración de almacenamiento en caché, consulte la documentación de los dos módulos principales ngx_http_fastcgi_module y ngx_http_proxy_module.

Recursos adicionales: almacenamiento en caché de contenido NGINX y consejos para mejorar el rendimiento de WordPress.