Website-, Webanwendungs- und API-Performance haben oberste Priorität. Viele Faktoren tragen zur Performance bei, zum Beispiel Netzwerk-Latenz, Einsatz leistungssteigernder Verfahren (Kompression), Minimierung der Server-Anfragen und die Stärke der antwortenden Server und deren unterstützende Infrastruktur. Sinkt die Server-Performance aufgrund von Lasten oder Alter, kannst du die Anzeichen hierfür in deinen Berichten sehen. Dieser Artikel zeigt die unterschiedlichen Indikatoren deines Synthetics und Real User Monitorings, an denen du siehst, dass deine Server Beachtung erfordern.
Zeichen von Server-Performance-Problemen in den Monitoring-Ergebnissen
Es mag nicht umgehend offensichtlich sein, wenn der Performance-Abfall direkt mit deinem Server oder Server-Traffic verknüpft ist, aber dein Monitoring kann dir die Richtung weisen. Website Monitoring, Web Performance Monitoring, Web Application Monitoring und API Monitoring von Uptrends überwachen alle die Leistung. Du kannst mit Performance-Ergebnissen sogar Alarmierungen auslösen.
Die Frage ist: Woher weißt du, dass es der Server sein könnte, wenn es um Performance-Probleme geht? Die Antwort steht in deinen Berichten.
Achte auf langsame Steigerungen bei Website- oder API-Zeiten
Steigende Trends bei Seitenlade- oder Antwortzeiten sind möglicherweise auf erhöhte Server-Last oder Funktionsminderung zurückzuführen. Beobachten der Performance über einen längeren Zeitraum kann einen langsam fortschreitenden Leistungsabfall bei den Seitenladezeiten oder API-Antworten zeigen, der sich wahrscheinlich auf Server-Probleme zurückführen lässt.
Probleme aufgrund von Konfiguration, Code und Inhalten sorgen eher für plötzliche Steigerungen bei Lade- und Antwortzeiten. Man muss einen breiteren Blickwinkel anlegen, um Verlangsamungen aufgrund von Server-Lasten und veraltenden Servern zu erkennen. Das folgende Diagramm zeigt die Erhöhung über einen sechsmonatigen Berichtszeitraum eines Web Performance Monitorings (Full Page Check).
In der Abbildung unten siehst du zwei Wasserfalldiagramme, die mehrere Monate auseinander liegen. Im unteren Diagramm kannst du feststellen, dass die Wartezeit für die erste Anfrage über acht Sekunden beträgt. Beim Betrachten der Prüfobjektprotokolle würde man erkennen, dass ein Webseiten-Performance-Test gelegentlich erhebliche Gesamtzeiten aufweist. Aber mit der Zeit steigt die Frequenz dieser langsamen Ladezeiten. An den Wasserfalldiagrammen kannst du sehen, dass die ursprüngliche Wartezeit der Anfrage von weniger als eine Sekunde auf mehr als acht Sekunden bei einigen Anfragen angestiegen ist. Erstelle eine Benchmark für deine Website-Performance mit unserem kostenlosen Webseiten Ladezeit Test.
Mit dem Parallel-Monitoring bestimmte Problem-Server identifizieren
Schnelle Server können beim Performance-Monitoring langsamere Server verbergen, da dir die Daten auf Grundlage von Durchschnittszahlen präsentiert werden. Das bedeutet, dass einige Nutzer nicht die von dir gewünschte hohe Qualität erhalten.
Das „verteilte“ Internet von heute ermöglicht dir, Nutzer abhängig von ihrem Standort zu bestimmten Servern zu leiten. Wenn du beispielsweise in Nordamerika bist, hast du diesen Artikel wahrscheinlich über unsere Server in New York abgerufen; bist du in Europa, geht deine Anfrage wahrscheinlich an die Server in Amsterdam. Wenn einer der Server eine höhere Last verarbeiten muss als erwartet, wird der Performance-Abfall im Standard-Monitoring eventuell nicht zu sehen sein, sofern er sich nicht auf die Durchschnittswerte des gesamten Systems auswirkt.
Standard-Tests der Website-Ladezeit prüfen alle fünf Minuten die Performance von einem Standort. Mit Einsatz von Uptrends’ globalem Netzwerk von über 223 Checkpoint-Standorten erhältst du höchstens zwei- oder dreimal Ergebnisse von jedem Checkpoint. Das Parallel-Monitoring vereinfacht das Überwachen der Performance von regionalen Servern.
Das Parallel-Monitoring prüft alle fünf Minuten von jedem Checkpoint
Nutzt du das Parallel-Monitoring, weist du die vom Prüfobjekt eingesetzten Checkpoints zu. Statt von einem Standort deiner Auswahl zu prüfen, testet Uptrends gleichzeitig mithilfe von allen gewählten Checkpoints. Das bedeutet, du erhältst regelmäßig Performance- (und Verfügbarkeits)-Daten, die sich tatsächlich auf die Nutzer im Gebiet jedes Checkpoints auswirken.
Das Beobachten der Website-Performance über einen längeren Zeitraum mit dem Parallel-Monitoring hilft dir beim Identifizieren von Verlangsamungen, deren Ursache nicht in der Netzwerk-Latenz liegt. Im Diagramm unten siehst du, dass die Latenz für Australien und Korea zwar höher, die Performance jedoch gleichbleibend ist. Doch ein längerer Berichtszeitraum würde subtilere Änderungen bei den Server-Antwortzeiten erfassen.
Performance-Abfall aufgrund von Server-Problemen mit dem Real User Monitoring zeigen
Beim Real User Monitoring (RUM) werden Website-Performance-Daten für Besucher erfasst, wenn sie eine RUM-überwachte Seite aufrufen. RUM verfolgt Performance-Informationen basierend auf Nutzerstandort, Gerät, Betriebssystem und Browser. RUM überwacht
- Ladezeiten
- Ladezeit des ersten Bytes (First Byte)
- Ladezeit der vollständigen Seite (Page Ready)
- Netzwerk
- Weiterleitungsdauer
- DNS-Zeit
- Verbindungsdauer
- Backend
- Sendedauer
- Empfangsdauer
- Frontend
- DOM-Zeit
- Rendering-Dauer
- Downloaddauer
Das Sortieren von Daten nach Standort und die Anzeige von Backend-Dauer im Vergleich zu Seitenaufrufen lässt in der Abbildung unten erkennen, dass die Seitenaufrufe die Performance dieser Website beeinträchtigen.
Überwachen der Server-Performance mit Infra
Wenn du Zugang zu deinen Servern hast, kannst du auch Infra einsetzen. Infra kann Server direkt überwachen. Infra liefert Server-Diagnosen, die dich zur Ursache von Problemen wie etwa CPU-Last oder RAM-Nutzung führen können.
Neben der Verfügbarkeit gibt es mehrere unterschiedliche Server-Metriken, die du im Auge behalten solltest:
- Gleichzeitige Nutzer: Die Anzahl der Nutzer eines Systems zu einem gegebenen Zeitpunkt.
- Request per Second (RPS) (Anfrage/Sekunde): Da sich das Nutzerverhalten unterscheidet, ist der Wert RPS ein besserer Indikator der Server-Auslastung.
- Fehlerraten: Eine höhere Server-Last bedeutet eine größere Wahrscheinlichkeit, dass Nutzer Fehler erleben.
- Thread-Anzahl: Eine hohe Thread-Zahl (Elemente, die verarbeitet werden müssen) kann zu höheren Fehlerraten führen, da der Server wartende Anfragen nicht bearbeitet, um die aktuelle Anfragelast zu bewältigen. Wenn die Wartezeit für neue Anfragen zu lang ist, erhält der Nutzer eine Meldung der Zeitüberschreitung.
- CPU, Speicher und Festplattennutzung: Wie bei jedem Computer, bei dem CPU, RAM oder Festplattenplatz rar sind, leidet die Performance eines Servers, wenn er nicht sogar komplett ausfällt. Wenn du auf diese Zahlen achtest, erkennst du, wenn dein System ein Upgrade oder Reparaturen erfordert oder wenn du weitere Server benötigst, um die Last zu bewältigen.
- Average Response Time (ART) und Peak Response Times (PRT) (Durchschnittliche und Spitzenantwortzeiten): Die durchschnittliche Antwortzeit ist die Gesamtzeit aller Anfragen, dividiert durch die Anzahl der Anfragen. Eine geringe Durchschnittszeit kann bedeuten, dass alles gut ist. Aber ein Verfolgen der Spitzenantwortzeit kann darauf hinweisen, dass es ein Problem bei einigen Anfragen gibt, die es zu untersuchen gilt.
Fazit
- Es gibt viele unterschiedliche Hinweise für Probleme mit Server-Kapazitäten.
- Ein Website Performance Monitoring allein erfasst diese Lastenkapazitätsprobleme nicht unbedingt, wenn mehrere Server im Spiel sind.
- Der Einsatz eines Parallel-Monitorings, um den Fokus auf bestimmte Service-Standorte zu legen, gibt ein eindeutigeres Bild hinsichtlich der Server-Performance in einer Region.
- Ein Filtern von RUM-Daten nach Standort bietet Backend-Performance-Berichte für bestimmte Länder und Staaten.
- Infra-Agents auf deinen Servern können dir direkt Performance- und Verfügbarkeitsinformationen liefern. Und bald stellen unsere Entwickler Infra-Daten in deinem Uptrends-Account bereit. Wir halten dich auf dem Laufenden!