Google dreht am Algorithmus

Es mehren sich die Berichte über Veränderungen im Bewertungalgorithmus der Google-Suche. Wie zuerst der SEO-Tool-Hersteller Sistrix im Blog meldete, seinen inzwischen deutliche Auswirkungen eines Updates festzustellen. Unklar ist, welche Absicht der Suchmaschinenkonzern Google mit der Anpassung der Algorithmen verfolge.

Google ändert Algo: Wo steht deine Site jetzt?

Google-Update von Mitte März 2019

SEO-Experten nennen diese Anpassung ein „Core-Update“. Dabei handelt es sich um größere Änderungen, während kleine Updates ständig und oft unbemerkt eingeführt werden. Man geht allgemein davon aus, dass zunehmend KI-gestützte Algorithmen zum Einsatz kommen, die unter anderem die Relevanz eines Webdokuments für die Beantwortung einer Userfrage abschätzen.

Wer als Webseitenbetreiber feststellen möchte, ob dieses Core-Update der Google-Suche Auswirkungen auf die eigenen Domains hat, sollte sich in der Webanalyse den Zeitraum vom 13.3.2019 bis 15.3.2019 ansehen. Dies scheint die Zeit zu sein, in der das Update ausgerollt wurde und Veränderungen bewirkt hat.

Betroffen? Änderungen in der „Sichtbarkeit“

Diese Veränderung schlagen sich unter anderem in der sogenannten „Sichtbarkeit“ wieder. Dies ist ein Begriff dafür, wie häufig eine Domain auf den Suchergebnisseiten von Google angezeigt wird. Um diesen Wert numerisch zu fassen, haben verschiedene Agenturen und andere Unternehmen einen „Sichtbarkeitsindex“ konstruiert. Dieser Index wird aus speziellen Datenerhebungen gewonnen. Das Prinzip: Es werden nacheinander viele Suchanfragen mit ausgewählten Suchbegriffen zur Googlesuche geschickt. Google antwortet mit seinen Suchergebnisseiten, deren Inhalte maschinell ausgelesen und gespeichert werden. Das Set an Test-Keywords muss groß sein und sollte das natürliche Suchverhalten in einem Land widerspiegeln.

Scraping nennt man den Vorgang des Auslesens der Suchergebnissseiten. Aus den gesammelten Daten lassen sich die Suchanfragen mit den Ergebnistreffern in Verbindung bringen. Dabei ist bekannt, für welches Keyword Google welches Suchergebnis auf welcher Position ausgewiesen hat. Dabei lassen sich die Ergebnisse so aggregieren, dass man darstellen kann, auf welcher Position alle Treffer (Einzelseiten) unter einer bestimmten Domain angezeigt wurden. Nun kann man auch diese Position mit allen anderen untersuchten Keywords und gefundenen Domains in Zusammenhang bringen, so dass man jeder Domain einer Index-Zahl zuordnen kann. Der Index ist so konstruiert, dass es kein oberes Ende gibt, kein theoretisches Maximum. Diese Zahl ist dimensionslos, d.h. sie hat keine Einheit, sondern reflektiert „nur“ die Beziehung der Domains untereinander im Hinblick auf ihre Prominenz auf Google-Suchergebnisseiten.

Für Websites, die sich an ein breites Webpublikum richten, ist diese Sichtbarkeit durchaus ein zentraler Indikator für dem Erfolg von SEO- und anderen Marketingmaßnahmen. Wer den Sichtbarkeitsindex seiner eigenen (oder jeder anderen) Domain abfragen möchte, kann ein kostenloses Tool von Sistrix nutzen. Die einzelne Zahl wird nicht viel aussagen. Interessant werden Vergleich über die Zeit und Vergleiche zu ähnlichen Websites oder Domains der Konkurrenz.

Für jeden zugänglich: Die Search Console von Google

Eine andere Quelle, um Effekte von Veränderungen des Google-Algorithmus zu entdecken, ist die Google Search Console, die seit einiger Zeit in neuem Gewand daherkommt. Hier werden die konkreten Werte für Anzahl an Suchanfragen mit Ausgabe einer Seite unter der eigenen Domain angezeigt (über diversen Zeiträume), die Anzahl der Klicks auf einen Treffer sowie die durchschnittliche Position.

Ruft man eine Zeitreihe mit der Anzahl der Impressionen auf, sollten sich „Knicks“ in der grafischen Darstellen (Kurve) zeigen, falls die eigene Seite von einer Maßnahme von Google betroffen ist.

Die Veränderung kann positiv oder negativ sein. Manche Sites profitieren von so einer Änderung bei Google, für andere wirkt sie schädlich. Diese Veränderungen und die Darstellung in der Google Search Console bezüglich einer konkreten Domain kommt leider nur zum Tragen, wenn relevant viel Suchanfragen mit der Ausgabe eines Webdokuments unter dieser Domain zu verzeichnen waren. Ansonsten verschwindet der Effekt im statistischen „Rauschen“.

Gewinner und Verlierer – aber warum?

Im oben erwähnten Blogbeitrag auf Sistrix sind einige „Gewinnerseiten“ und „Verliererseiten“ gegenübergestellt. Auf den ersten Blick ist zunächst kein Muster erkennbar. Der Autor verweist aber darauf, dass die diesmal vom Update betroffenen Seiten ähnliche Auswirkungen bei den vorhergegangenen Updates von Google erfahren haben, zumindest bezogen auf das Konstrukt „Sichtbarkeit“.

Man darf vermuten, dass bei der Umsetzung der Algorithmusanpassung Daten eingeflossen sind, die das Nutzerverhalten einbezogen haben. Diese Daten sind offenbar mit Methoden aus dem Maschinellen Lernen operationalisiert worden. Welche Zusammenhänge damit gefunden worden sind und nun Teil der Betrachtung werden, ist nicht bekannt. Jedoch veröffentlicht Google i

Mysterium „User Experience“

Von Google selbst gab es einen Tweet dazu, der im Beitrag von Sistrix zitiert ist. Er stammt von Ex-SEO und Jetzt-Googler Danny Sullivan, also aus berufener Quelle.

Allerdings äußert auch er sich nicht zu Faktoren, die zu einem veränderten Ranking auf den Suchergebnisseiten führen könnten. Als allgemein bekannt gilt, dass die User Experience für die Bewertung der Seite wichtig ist. Allerdings zerfällt auch dieses Konstrukt in eine Vielzahl von Einzelkriterien, die nicht wirlich bekannt sind. Zudem müssen diese Einzelkriterien technisch erfahrbar, also messbar sein. Welche Kriterien könnten sich messen lassen, die mit der eher affektiven Bewertung einer als gut klassifizierten Website korrelieren?

Korrelation und Kriterien

Sicher ist die Ladegeschwindigkeit ein wichtiges Kriterium, das sich ohne weiteres messen lässt. Zudem ist auch sehr leicht feststellbar, wie das Klickverhalten auf einer Webseite aussieht und ob und wie schnell User den „zurück“-Button betätigen. Insofern dürfte eine Webseite, die sehr schnell lädt und auf der die User vergleichweise lange verweilen als „besser“ im Sinne der User Experience eingeschätzt werden. Hinzu kommen auch technisch feststellbare Eigenschaften wie Schriftgröße, Abstand der Elemente zu einander und ähnliches. Dies sind Kriterien, die auch bei der Nutzung der entsprechenden Google Tests ausgegeben werden.

Diese Tests finden man verstreut auf einigen Sites von Google. Unter anderem befindet sich in der erwähnten Search Console ein Zugang, insbesondere zur Eignung einer Seite auf Smartphone und Tablets.

Fazit

Auch heute noch dreht Google immer mal wieder an den Algorithmen, die die Zusammenstellung der Suchergebnisseiten beeinflussen. Welche Kriterien angewendet werden und wie diese miteinander kombiniert werden, ist nach wie vor öffentlich nicht bekannt.

In welche Richtung diese Veränderungen gehen, beziehungsweise, welche Absicht Google damit verfolgt, lässt sich nur erahnen. Aktuell steht offensichtlich die User Experience im Vordergrund – eine Mischung aus Seitenladegeschwindigkeit und Interaktion der User auf einer Webseite, aus der offensichtlich abgeleitet wird, wie nützlich oder zugänglich das Webdokument ist.

Eine Antwort auf „Google dreht am Algorithmus“

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert