Lastverteilung und Caching mit Nginx

Lastverteilung und Caching mit Nginx

Nginx (sprich “engine x”) ist ein sogenannter Reverse Proxy. Dieser kann sowohl die Last auf mehrere Anwendungsserver verteilen, aber auch Dateien zwischenspeichern und diese selbst an den Browser ausliefern.

Lastverteilung

Als klassischer Loadbalancer wird Nginx an vorderster Front der Serverarchitektur eingesetzt und erhält somit alle eingehenden Anfragen der Webseitenbesucher. Die Verteilung auf die dahinter liegenden Anwendungsserver erfolgt im Rundlauf-Verfahren (Round Robin) oder unter Berücksichtigung von Parametern wie der Gewichtung.
[sourcecode]
upstream appserver {
server app1.webseite.tld weight=5;
server app2.webseite.tld weight=5;
}
location / {
proxy_pass http://appserver;
}
[/sourcecode]

Zwischenspeicherung

Die Anwendungsserver sind meist mit PHP-Modulen dick bepackt und haben daher einen großen Speicher-Fußabdruck. 20 bis 30 MB sind da keine Seltenheit. Der Nginx im Vergleich dazu hat meist nur rund 5 MB. Es macht daher Sinn vor allem statische Dateien wie Bilder, CSS und Javascripte für mind. 24 Stunden zwischenzuspeichern und die Anwendungsserver damit zu entlasten. Über die location-Anweisung kann gesteuert werden, welcher Teil der Webseite wie gecached werden soll.
[sourcecode]
proxy_cache_key $host$request_uri;
proxy_cache_path /var/www/cache/images levels=1:2 keys_zone=images:500m;
location /images {
proxy_cache images;
proxy_cache_valid 24h;
proxy_pass http://appserver;
}
[/sourcecode]
Möchte man einen Eintrag im Zwischenspeicher vorzeitig löschen, etwa um eine neue CSS-Datei zu veröffentlichen, benutzt man entweder Versionsnummern, die an die URL per GET angehängt werden, oder das “ngx_cache_purge“-Modul und eine spezielle Lösch-URL nach dem Schema “http://www.webseite.tld/cache-purge/?url=www.webseite.tld/images/bild1.jpg”.
[sourcecode]
location ^~ /cache-purge/ {
allow 127.0.0.1;
deny all;
proxy_cache_purge images $arg_url;
}
[/sourcecode]

Auswertung

Um eine Hit Rate, also die Anzahl der Anfragen, die direkt aus dem Zwischenspeicher bedient werden konnten, im Verhältnis zur Summe aller Anfragen zu berechnen, sollte das Protokoll im Nginx aktiviert und weitere Infos ergänzt werden: Konnte die Anfrage aus dem Cache bedient werden? Welcher Anwendungsserver hat die Anfrage verarbeitet und wie lange hat er dafür benötigt.
[sourcecode]
log_format proxy ‘[$time_local] Cache: $upstream_cache_status $upstream_addr $upstream_response_time $status $bytes_sent $proxy_add_x_forwarded_for $request_uri’;
access_log /var/log/nginx/webseite.tld.access_log proxy;
[/sourcecode]

Nginx, Cache-Hits pro Sekunde

Schmankerl

Nutzt die Webseite SSL macht es Sinn auch diesen Prozess in den Proxy auszulagern. So entfällt auf allen Anwendungsserver die SSL-Konfiguration, das Laden des SSL-Moduls und natürlich auch der Aufwand durch die Aushandlung der SSL-Verbindung.
[sourcecode]
ssl on;
ssl_certificate /etc/ssl/private/webseite.tld.crt
ssl_certificate_key /etc/ssl/private/webseite.tld.key;
[/sourcecode]
Die Komprimierung von Text-Dateien spart erheblich Übertragungszeit und Netzwerktraffic, belastet allerdings auch den Prozessor und sollte daher ebenfalls auf den Proxy ausgelagert werden. Denn dieser benötigt selbst kaum Rechenleistung.
[sourcecode]
gzip on
gzip_types text/plain application/xml;
gzip_disable “MSIE [1-6].”
[/sourcecode]

Nginx, CPU-Auswertung, 2x Xeon @ 2.33GHz

Fazit

Der Nginx hat sich als bei SysEleven als Proxy bewährt. Er ist robust und vielseitig konfigurierbar. Statische Dateien kann er leicht und effektiv zwischenspeichern und selbst ausliefern. Mit weiteren Modulen wie FastCGI, Memcached und SSI kann er zum wahren Multi-Talent werden. Doch dazu später mehr.

Share this post

Comment (1)

  • falkbizz Reply

    Spitzen Beitrag.
    Jetzt hab ich das auch endlich verstanden.
    Vielen Dank

    November 16, 2015 at 3:37 pm

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.