goneo Webhosting: Läuft und läuft und läuft

Performance-Analysen sind extrem interessant, aber auch sehr tricky: Es gibt kein allgemein anerkanntes Standard-Messmodell, wie man die Performance einer Website zu ermitteln hat.

Schon der Begriff „Performance“ ist mehrdeutig und hat zumindest einige Dimensionen: Ohne, dass das System überhaupt verfügbar ist, gibt es keine Reaktionszeit oder Ausführungszeit, die man messen könnte.

An dieser Stelle setzt Hosttest.de an. Der unabhängige Vergleichsanbieter testet in kurzen Abständen, ob ein definierter Server antwortet. Dies lässt sich statistisch erfassen und zu einer Prozentzahl zusammenfassen.

goneo war 100 Prozent verfügbar im Juli 2022. Im Hinterrgund: Router.
Laut hosttest.de antworteten auch im Juli 2022 die Server von goneo zuverlässig.

Das Ergebnis von Hosttest war auch im Juli 2022, dass der angesprochene Server von goneo stets zuverlässig geantwortet hat.

Wenn man solche Messungen durchführen und interpretieren möchte, muss man sich klar darüber werden, was man messen will, wie man es messen kann. Man braucht ein valides Messinstrument, das messen kann, was es messen soll. Wichtig: Entscheidend ist dann auch ob man die Messungen auch wiederholen kann, wobei man mit dem Messinstrument bei wiederholter Messung zum gleichen Messergebnis kommen soll. Ansonsten ist das Instrument nicht zuverlässig, nicht reliabel.

Anschließend stellt sich die Frage, wie die Ergebnisse zu interpretieren sind. Ohne einen Vergleich mit vielen anderen Testobjekten ist eine qualitative Einordnung in „gut“ und „schlecht“ oder irgend etwas dazwischen oft sinnlos. Ab und an legen auch Computerfachzeitschriften solche breiten Tests an.

Im Hosttest-Szenario sind diese Validitäts- und Reliabilitätskriterien gegeben. Als Aussage des Testergebnisses wird eine Prozentzahl berichtet, die im Prinzip ein Verhältnis der Anzahl erfolgreichen (erwarteten) Antworten zu der Anzahl der Versuche wiedergibt. Theoretisches Maximum wird also ein Wert von 100 Prozent sein.

Gefühlte Performance: Psychologische Faktoren

Es gibt auch nicht-objektive Kriterien, etwa die „gefühlte“ Performance. Es gibt ein subjektives Empfinden, wie schnell oder langsam ein Computer reagiert. Als besonders störend empfindet man es, wenn man das Gefühl bekommt, man muss auf die Maschine warten und die Maschine kontrolliert den Menschen – und nicht umgekehrt.

Eine Verzögerung von 100 Millisekunden oder weniger erscheint uns Menschen als „sofort“- So bis um eine Sekunde Verzögerung wird noch akzeptiert. Der User hat noch nicht das Gefühl, auf die Website zu warten, obwohl er eine Latenz wahrnimmt. Im Bereich 1 bis 10 Sekunden wünscht man sich, dass alles schneller gehen sollte. Ab 10 Sekunden richtet man seine Aufmerksamkeit auf andere Dinge.

Solche Effekte sind recht gut nachweisbar. Als Test-Setup könnte man sich vorstellen, man variiert systematisch die Zeit für die Auslieferung der Startseite eines Onlineshops. Dabei protokolliert man, ob mit einem Websitebesuch eine Transaktion (ein Kauf) zustande kommt oder nicht. Man wird dann viele Messergebnisse mit vielen variierten Auslieferungszeiten sammeln und statistisch auswerten. Zu erwarten ist, dass es einen Zusammenhang zwischen Seitenladezeit und Kauf gibt: Je schneller die Site, desto wahrscheinlicher ist es, dass der Webseitenbesucher etwas bestellt.

Solche Experimente hat man vielfach durchgeführt und der Ergebnis ist eindeutig: Schnelle Websites sind besser als langsame. In der Fachzeitschrift Website Boosting werden solche Fragestellungen praxisnah beleuchtet.

Um übergreifend Websites zu testen müsste man allerdings das Messmodell stark ausbauen. Einen solchen Ansatz verfolgt zum Beispiel webhostingvergleich.eu von Thomas Hönscheid.

Viele Performance-Messwerte in unterschiedlichen Tools

Hier steht die Messung des Time to first byte (über TTFB, wie man diesen Ausdruck abkürzt, haben wir im goneo Blog schon oft geschrieben) – Wertes im Vordergrund. Will man unterschiedliche Serverplattformen vergleichen, muss man für gleiche Bedingungen, ceteris paribus, sorgen. Sind die Bedingungen unterschiedlich, werden die Messungen dadurch verzerrt.

Das Testszenario und das Setting können sehr aufwendig sein. Wer gezielt an seiner Website arbeiten will, um diese zu verbessern, kann Tools wie webpagetest.org oder auch die Pagespeed Insights von Google nutzen.

Mit dem Lighthouse Feature im Chrome-Browser von Google lassen sich viele Werte ermitteln: First Contentful Paint, Time to Interactive, Speed Index, Total Blocking Time, Largest Contentful Paint, Cumulative Layout Shift.

Man kann also verschiedene Zeiten darstellen, wie lange es gebraucht hat, bis die Website samt Inhalt dargestellt war oder bis man auf der Website irgendetwas tun konnte. Das kann man auch zu einem Indexwert verdichten. Interessant sind auch Dinge, die die Ladezeit der Seite verlängern. Suboptimal ist der Effekt, dass beim Aufbau einer Seite sich das Layout ändert. Lighthouse versucht diesen Effekt mit dem Wert Cumulative Layout Shift zu quantifizieren.

So haben Webdesigner viele Ansatzpunkte, um Performance-Kriterien zu verbessern. Hinter all dem steckt aber auch Aufwand, zumindest zeitlicher Aufwand. Meist wird man mit einer Kosten-Nutzen-Überlegung entscheiden, wo man zuerst ansetzt oder ob sich die Optimierung überhaupt lohnt. Umgekehrt darf man ohne Optimierung aber keine Verbesserung der Interaktionsrate oder auch der Position in Suchmaschinenergebnislisten erwarten.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.