Anders als es die Bezeichnung Sichtbarkeitsindex (SI) nahelegt, sagen die von mehreren Unternehmen angebotenen, nicht standardisierten generischen Statistik-Tools nichts über die tatsächliche Sichtbarkeit einer Website im Internet aus. Die Entwickler des ersten vielverwendeten Sichtbarkeitsindex (Sistrix) klären selbst über das Missverständnis vieler Nutzer ihrer Software auf. "Häufig wird der SISTRIX Sichtbarkeitsindex mit einem SEO-Trafficindex verwechselt. Infolge dessen erscheinen Blogposts mit Beispielen, wie gut oder weniger gut die Entwicklung des Sichtbarkeitsindex mit dem tatsächlichen SEO-Traffic der Domain korreliert. Die meisten dieser Beiträge beruhen auf einem grundlegenden Missverständnis: der SISTRIX Sichtbarkeitsindex ist kein SEO-Trafficindex und will es auch nicht sein. " hier den Blogbeitrag lesen: Was soll der Sichtbarkeitsindex (SI) messen? "Der SI wurde entwickelt, um die Veränderungen der Rankings einer Domain in den organischen Suchergebnissen von Google in einer einzigen Kennzahl zu verdichten" - erklärt das Sistrix-Team. Den Programmierern dieses SI ging es also keineswegs - wie oft fälschlich angenommen wird - darum, die Sichtbarkeit einer Website und die Zahl der tatsächlich erfolgten Seitenaufrufe - objektiv zu erfassen, sondern lediglich darum, Veränderungen in der Sortier-Reihenfolge der am häufigsten verwendeten Google-Suchbegriffe (Keywords) zu erfassen. Warum sich diese Sortierung verändert ist im Regelfall nicht bekannt - darüber kann daher nur spekuliert werden. Wie Psychologen wissen, beziehen die meisten Menschen positive Veränderungen auf das eigene Wirken. Für negative Entwicklungen sind aber meist andere Beteiligten verantwortlich zu machen. Wie heißt es so schön: "Der Erfolg hat viele Väter". Die statistisch in öffentlich zugänglichen Datensammlungen erfassten Google-Suchbegriffe sollen durch die Anwendung generischer Berechnungen in Beziehung zu den auf der zu analysierenden Website publizierten Keywords gesetzt werden. Welche Keywords nach Meinung des Herausgebers der Website besonders wichtig sind, ist den Autoren des genutzten SI nicht bekannt. Die errechneten SI-Zahlen basieren auf reiner Spekulation, die nichts über die tatsächliche Nutzung, bzw. den kommerziellen Wert der Website aussagen kann. Insbesondere garantieren gute SI-Werte nicht, dass die analysierte Website bei einer tatsächlich durchgeführten Google-Suche auf der Seite 1 einer generierten Linkliste im exklusiv beachteten Linksegment 1. - 10. präsent ist. Nur eine derartige Platzierung hätte aber das Potential eines kommerziellen Wertes - obgleich nur ein Teil der Links mit Top-Ranking zu tatsächlichen Kundenkontakten führt - bzw. zum Kauf beworbenen Produkte oder zur Inanspruchnahme angebotener Dienstleistungen. Auf die Zahl tatsächlich erfolgter Seitenaufrufe haben die SI-Tools keinen Zugriff, da sie passwortgeschützt in den Logfiles des jeweiligen Internetproviders abgespeichert werden und so für Dritte nicht einsehbar sind. Nur der Eigentümer der Website und seine authorisierten Mitarbeiter haben Zugriff auf die gespeicherten Daten, die etwas über die tatsächliche Sichtbarkeit des individuellen Internet-Auftritts aussagen. Wichtig zu wissen: die praktische Wertigkeit der verschiedenen im Source-Code eingefügten Keywords für den Herausgeber der Website, und dessen Geschäftsidee, fließt nicht in den errechneten SI-Wert ein, da sie nicht bekannt ist. Dieser Fakt reduziert den praktischen Wert des errechneten SI-Wertes in Richtung Null. Was die Bedeutung eines Keywords angeht, so ist Sistrix, bzw. ein beliebiger anderer SI oft anderer Meinung als der Herausgeber der zu analysierenden Webseite. Das entwertet den errechneten SI-Wert völlig. Ein guter SI-Wert kann sich maßgeblich auf einen Schlüsselbegriff beziehen, den der Algorithmus eines SI wie Sistrix für wichtig hält - der Herausgeber der Website aber nicht. Ein errechneter SI-Wert ist also nur das Ergebnis einer Kombination verschiedener Rate- bzw. Spekulationsvorgänge . Webmaster neigen dazu, möglichst viele unterschiedliche Keywords im Source-Code zu publizieren - in der diffusen Hoffnung, dass sich dies "irgendwie" positiv auf das Ranking auswirkt. Praktisch erfahrene IT-Experten raten daher mit Nachdruck davon ab, die Metrik eines SI überhaupt für anstehende SEO-Entscheidungen, bzw. das online Marketing zu nutzen. In einem vielbeachteten Blogbeitrag der Experten-Website www.online-profession.de wurde zusammengefaßt, was es kritisches zum Thema SI zu sagen gibt - hier können Sie dies nachlesen. Die Zusammenfassung kritischer Meinungsäußerungen erfahrener Internet-Praktiker führt letztendlich zu der griffigen Überschrift und Empfehlung "Pfeif auf die Sichtbarkeit". Siehe hier. Die umstrittenen SI-Tools haben also - anders als ihre Bezeichnung vermuten läßt - nichts mit der tatsächlichen Sichtbarkeit einer Website im Internet zu tun - bzw. mit wissenschaftlich begründeten Fakten. Dies auch deshalb nicht, da in einen errechneten SI-Wert ausschließlich eine Auswahl häufig verwendeter Google-Suchbegriffe einfliessen - die Daten der zahlreichen anderen Suchmaschinen werden ignoriert. Dieses Vorgehen ist natürlich überhaupt nicht zielführend, da Google zwar weltweit pro Tag - geschätzt - 100 Milliarden Suchanfragen beantwortet - die sog. "Google-Alternativen" wie Microsoft Bing, DuckDuckGo, Lycos, Yahoo oder Yandex aber die ebenfalls große Zahl von täglich 10 Milliarden . Wie ermittelt man die tatsächliche Sichtbarkeit einer Website, wenn ein SI hiefür nicht geeignet ist ? Entscheidend für die Ermittlung der tatsächlichen Sichtbarkeit einer Website ist ausschließlich die Zahl der SERPS (Search Engine Result Page ) SERP ist die Abkürzung von Search Engine Result Page. Dieser Begriff bezeichnet die Ergebnisse, welche dem Nutzer nach Eingabe eines Keywords angezeigt werden – also diejenigen Seiten, auf denen die Suchmaschinen wie Google und Co. die Suchergebnisse auflisten.
SERPs und Rankingpotenziale
Die Sichtbarkeit einer Website wird durch die Zahl zuweisender Qualitäts-Backlink beeinflußt - und dem prozentualen Anteil der Ankerseiten der Links, auf denen die für die Sichtbarkeit einer Website so wichtigen dofollow-Attribute aktiviert sind. Websites sind besonders gut sichtbar, wenn zuweisende Backlinks bei der Recherche nach populären Leit-Suchbegriffen in möglichst vielen relevanten Suchmaschinen auf der Seite 1 der generierten Linkliste im exklusiv beachteten Linksegment 1.-10. präsent sind. Die statistische Auswertung in der Vergangenheit erfasster, häufig verwendeter Google-Suchbegriffe kann nichts über die zukünftige Sichtbarkeit einer Website, die SERP´s bzw. über den zu erwartenden Traffic aussagen. Ein SI basiert auf der Sortierreihenfolge in der Vergangenheit häufig verwendeter Google-Suchbegriffe, die in einer Datenbank indexiert wurden. Ein SI ist aufgrund der Rahmenbedingungen des Internets nicht geeignet, um zukünftiger Veränderungen des Google-Suchindex bzw. individueller Webseiten zu prognostizieren. Warum haben gut sichtbare, populäre Websites gelegentlich einen niedrigen oder keinen berechneten SI-Wert ? Viele Nischenwebsites wenden sich an kleine Zielgruppe. Im Sourcecode der einzelnen Seiten sind Keywords aufgelistet, die aufgrund des ausgefallenen Themas in den für die SI-Analysen verwendeten Datenbanken häufig verwendeter Google-Suchbegriffe nicht oder nur sehr selten vorkommen. Sie sind in der Gruppe vielverwendeter Google-Suchbegriffe so deutlich unterrepräsentiert, dass sie sich auf die berechneten SI-Werte kaum oder nicht auswirken können. Ausgewertet werden ohnehin nicht alle Google-Suchanfragen, sondern - völlig intransparent - nur Gruppen von besonders häufig in die Suchmasken eingegebenen Begriffe. Für Nischenwebsites kann ein SI-Wert oft aufgrund der kleinen Zahl entsprechender Daten überhaupt nicht errechnet werden. Die Anwender gehen oft fälschlicherweise davon aus, dass der SI-Wert wissenschaftlich begründet ist und etwas über den derzeitigen, bzw. gar zukünftigen "Wert" einer Website aussagen kann. Niedrige SI-Werte werden als Zeichen dafür gedeutet, dass die analysierte Website aus kommerzieller Sicht wertlos ist und in Zukunft sein wird. Es handelt sich bei den Nischenwebsites aber meist um Internet-Auftritte, die vom Mainstream abweichende Themen, bzw. Produkte und Dienstleistungen werbend vorstellen. Deren publizierte Keywords kommen in den “Google-Keyword-Datensammlungen” kaum - oder nicht - vor. Typische Suchbegriffe sind beispielsweise in den Medizin-Mikro-Websites des Info-Netzwerk Medizin 2000 exotisch klingende Begriffe wie Hodgekin-Lymphom, Propolis, Krillöl, ASMR, fleisch-aus-stammzellen, pegane Ernaehrung, B-Zell-Lymphom, MPL-Adjuvans, Apitherapie oder auch chronisches-fatique-syndrom. Die meisten Google-Nutzer kennen diese Begriffe nicht und suchen daher auch nicht nach ihnen - sie kommen daher in den statistischen Auswertung der Suchanfragen kaum oder nicht vor. Daraus ergeben sich gelegentlich rein rechnerisch SI-Werte von Null. Diese sagen aber nichts über die tatsächliche Sichtbarkeit, bzw. den Nutzen der betreffenden, hochspezialisierten Nischenwebsites für die Mitglieder der kleinen Zielgruppen aus. Fazit: Je "nischiger" und thematisch ausgefallener eine Domain bzw. die zuweisenden Backlinks sind, umso weniger sichtbar ist die Website und um so seltener sind die entsprechenden Leit-Suchbegriffe in den Datensammlungen der von den SI-Tools ausgewerteten Google-Suchbegriffe zu finden. |