Anders als es die Bezeichnung  Sichtbarkeitsindex (SI) nahelegt, sagen die von mehreren Unternehmen angebotenen, nicht standardisierten generischen Statistik-Tools nichts über die  tatsächliche Sichtbarkeit einer Website im Internet aus.

Die Entwickler des ersten vielverwendeten Sichtbarkeitsindex (Sistrix)  klären selbst über das Missverständnis vieler Nutzer ihrer Software auf.


"Häufig wird der SISTRIX Sichtbarkeitsindex mit einem SEO-Trafficindex verwechselt. Infolge dessen erscheinen Blogposts mit Beispielen, wie gut oder weniger gut die Entwicklung des Sichtbarkeitsindex mit dem tatsächlichen SEO-Traffic der Domain korreliert. Die meisten dieser Beiträge beruhen auf einem grundlegenden Missverständnis: der SISTRIX Sichtbarkeitsindex ist kein SEO-Trafficindex und will es auch nicht sein. "  hier den Blogbeitrag lesen:





Was soll der Sichtbarkeitsindex (SI) messen?


"Der SI wurde entwickelt, um die Veränderungen der Rankings einer Domain in den organischen Suchergebnissen von Google in einer einzigen Kennzahl zu verdichten"  - erklärt das Sistrix-Team.

Den Programmierern dieses SI ging es also keineswegs  - wie oft fälschlich angenommen wird  - darum, die Sichtbarkeit einer Website und  die Zahl der tatsächlich erfolgten Seitenaufrufe - objektiv zu erfassen, sondern lediglich darum,  Veränderungen in der Sortier-Reihenfolge der am häufigsten verwendeten Google-Suchbegriffe (Keywords) zu erfassen. 

Warum sich diese Sortierung verändert ist im Regelfall nicht bekannt - darüber kann daher nur spekuliert werden.

Wie Psychologen wissen,  beziehen die meisten Menschen positive Veränderungen auf das eigene Wirken.   Für negative Entwicklungen sind aber meist  andere Beteiligten verantwortlich zu machen. Wie heißt es so schön:  "Der Erfolg hat viele Väter".

Die statistisch in öffentlich zugänglichen Datensammlungen erfassten Google-Suchbegriffe sollen durch die Anwendung generischer Berechnungen in Beziehung zu den auf der zu analysierenden Website publizierten Keywords gesetzt werden.

Welche Keywords nach Meinung des Herausgebers der Website besonders wichtig sind, ist den Autoren des genutzten SI nicht bekannt.

Die errechneten SI-Zahlen basieren auf reiner Spekulation, die nichts über die tatsächliche Nutzung, bzw. den kommerziellen Wert der Website aussagen kann.

Insbesondere garantieren gute SI-Werte nicht, dass die analysierte Website bei einer tatsächlich durchgeführten Google-Suche auf der Seite 1 einer generierten Linkliste im exklusiv beachteten Linksegment 1. - 10. präsent ist.

Nur eine derartige Platzierung hätte aber das Potential eines kommerziellen Wertes - obgleich nur ein Teil der Links mit Top-Ranking zu tatsächlichen  Kundenkontakten führt - bzw.  zum Kauf  beworbenen Produkte oder zur Inanspruchnahme angebotener Dienstleistungen.

Auf die Zahl tatsächlich erfolgter Seitenaufrufe haben die SI-Tools keinen Zugriff, da sie passwortgeschützt in den Logfiles des jeweiligen Internetproviders abgespeichert werden und so für Dritte nicht einsehbar sind.  Nur der Eigentümer der Website und seine authorisierten Mitarbeiter haben Zugriff auf die gespeicherten Daten, die etwas über die tatsächliche Sichtbarkeit des individuellen Internet-Auftritts aussagen.

Wichtig zu wissen: die praktische Wertigkeit der verschiedenen im Source-Code eingefügten Keywords für den Herausgeber der Website, und dessen Geschäftsidee,  fließt nicht in den errechneten SI-Wert ein, da sie nicht bekannt ist.

Dieser Fakt reduziert den praktischen Wert des errechneten SI-Wertes in Richtung Null.

Was die Bedeutung eines Keywords angeht, so ist Sistrix,  bzw. ein beliebiger anderer SI oft anderer Meinung als der Herausgeber der zu analysierenden Webseite. 

Das entwertet den errechneten SI-Wert völlig.

Ein guter SI-Wert kann sich maßgeblich auf einen Schlüsselbegriff beziehen, den der Algorithmus eines SI wie Sistrix für wichtig hält - der Herausgeber der Website aber nicht.


Ein errechneter SI-Wert  ist also nur das Ergebnis einer Kombination verschiedener Rate- bzw. Spekulationsvorgänge .

Webmaster neigen dazu, möglichst viele unterschiedliche Keywords im Source-Code zu publizieren - in der diffusen Hoffnung, dass sich dies "irgendwie" positiv  auf das Ranking auswirkt.


Praktisch erfahrene IT-Experten raten daher mit Nachdruck davon ab, die Metrik eines SI überhaupt für anstehende SEO-Entscheidungen,  bzw. das online Marketing zu nutzen.

In einem vielbeachteten Blogbeitrag der Experten-Website www.online-profession.de wurde zusammengefaßt, was es kritisches zum Thema SI zu sagen gibt - hier können Sie dies nachlesen.


Die  Zusammenfassung kritischer Meinungsäußerungen erfahrener Internet-Praktiker führt letztendlich zu der griffigen Überschrift und Empfehlung "Pfeif auf die Sichtbarkeit".  Siehe hier.

Die umstrittenen SI-Tools haben also - anders als ihre Bezeichnung vermuten läßt  -    nichts mit der tatsächlichen Sichtbarkeit einer Website im Internet zu tun - bzw. mit  wissenschaftlich begründeten Fakten.

Dies auch deshalb nicht, da in einen errechneten SI-Wert  ausschließlich eine Auswahl häufig verwendeter Google-Suchbegriffe einfliessen - die Daten der zahlreichen anderen Suchmaschinen werden ignoriert.  Dieses Vorgehen ist natürlich überhaupt nicht zielführend, da Google zwar weltweit pro Tag  - geschätzt - 100 Milliarden Suchanfragen beantwortet - die sog. "Google-Alternativen" wie Microsoft Bing, DuckDuckGo, Lycos, Yahoo oder Yandex  aber die ebenfalls große Zahl  von täglich 10 Milliarden .



Wie ermittelt man die tatsächliche Sichtbarkeit einer Website, wenn ein SI hiefür nicht geeignet ist ?

Entscheidend für die Ermittlung der tatsächlichen Sichtbarkeit einer Website ist ausschließlich die  Zahl der SERPS (Search Engine Result Page ) SERP ist die Abkürzung von Search Engine Result Page. Dieser Begriff bezeichnet die Ergebnisse, welche dem Nutzer nach Eingabe eines Keywords angezeigt werden – also diejenigen Seiten, auf denen die Suchmaschinen wie Google und Co. die Suchergebnisse auflisten.

SERPs und Rankingpotenziale  

Das Ranking in den SERPs ist entscheidend für den Erfolg von Websites.

Denn die Betreiber der Seiten wollen erreichen, dass die Suchmaschinen ihre Angebote möglichst weit oben in den SERPs ausspielen.

Untersuchungen zufolge verteilt sich das Gros der Klicks nämlich auf das Linksegment 1.-10. zu einem Keyword.

Nach der ersten SERP sinkt die Aufmerksamkeit der  Nutzer drastisch. So entfallen nach einer SISTRIX-Studie nur weniger als 1% der Klicks auf die zweite Ergebnisseite der aktuell genutzten Suchmaschine.
Der Traffic einer Website beeinflusst den Nutzen zusätzlich generierter Qualität-Backlinks in keiner Weise.  Es kommt nämlich nur darauf an, dass diese Backlinks im Internet tatsächlich vorhanden und unbehindert durch Passwortabfragen oder nofollow-Attribute frei aufrufbar sind.

Ein hoher SI-Wert kann erfahrungsgemäß mit einer schlechten tatsächlichen Sichtbarkeit einhergehen - und ein niedriger SI-Wert  mit einer guten tatsächlichen Sichtbarkeit.


Die Sichtbarkeit einer Website wird durch die Zahl zuweisender Qualitäts-Backlink beeinflußt  - und dem prozentualen Anteil der Ankerseiten der Links, auf denen die für die Sichtbarkeit einer Website so wichtigen dofollow-Attribute aktiviert sind.

Websites sind besonders gut sichtbar, wenn zuweisende Backlinks bei der Recherche nach populären Leit-Suchbegriffen in möglichst vielen relevanten Suchmaschinen auf der Seite 1 der generierten Linkliste im exklusiv beachteten Linksegment 1.-10. präsent sind. 

Die statistische Auswertung  in der Vergangenheit erfasster, häufig verwendeter  Google-Suchbegriffe kann nichts  über die zukünftige Sichtbarkeit einer Website,  die SERP´s bzw. über den zu erwartenden Traffic aussagen. 


Ein SI basiert auf der Sortierreihenfolge in der Vergangenheit häufig verwendeter Google-Suchbegriffe, die in einer Datenbank  indexiert wurden.

Ein  SI  ist aufgrund der Rahmenbedingungen des Internets nicht geeignet, um zukünftiger Veränderungen des Google-Suchindex bzw. individueller Webseiten zu prognostizieren.



Warum haben  gut sichtbare, populäre Websites gelegentlich einen niedrigen  oder keinen berechneten  SI-Wert ?


Viele Nischenwebsites wenden sich an  kleine Zielgruppe. Im Sourcecode der einzelnen Seiten sind Keywords aufgelistet, die aufgrund des ausgefallenen Themas in den für die SI-Analysen verwendeten Datenbanken  häufig verwendeter Google-Suchbegriffe nicht  oder nur sehr selten vorkommen.

Sie sind in der Gruppe vielverwendeter Google-Suchbegriffe so deutlich unterrepräsentiert, dass sie sich auf die berechneten SI-Werte kaum oder nicht auswirken können. 

Ausgewertet werden ohnehin nicht alle Google-Suchanfragen, sondern - völlig intransparent - nur Gruppen von besonders häufig in die Suchmasken eingegebenen  Begriffe.


Für Nischenwebsites kann ein SI-Wert oft  aufgrund der kleinen Zahl entsprechender Daten überhaupt nicht errechnet werden.  


Die Anwender gehen oft fälschlicherweise davon aus, dass der SI-Wert wissenschaftlich begründet ist und etwas über den derzeitigen,  bzw. gar zukünftigen "Wert" einer Website aussagen kann.

Niedrige SI-Werte werden als Zeichen dafür gedeutet, dass die analysierte Website aus kommerzieller Sicht wertlos ist und in Zukunft sein wird.

Es handelt sich bei den Nischenwebsites aber meist um Internet-Auftritte, die vom Mainstream abweichende  Themen,  bzw. Produkte und  Dienstleistungen  werbend vorstellen. Deren publizierte Keywords kommen in den “Google-Keyword-Datensammlungen”  kaum - oder nicht  - vor. 

Typische Suchbegriffe sind beispielsweise in den Medizin-Mikro-Websites des Info-Netzwerk Medizin 2000 exotisch klingende Begriffe wie Hodgekin-Lymphom, Propolis, Krillöl, ASMR, fleisch-aus-stammzellen, pegane Ernaehrung, B-Zell-Lymphom, MPL-Adjuvans, Apitherapie oder auch chronisches-fatique-syndrom.


Die meisten Google-Nutzer kennen diese Begriffe nicht und suchen daher auch nicht nach ihnen - sie kommen daher in den  statistischen Auswertung der Suchanfragen kaum oder nicht vor.

Daraus ergeben sich gelegentlich rein rechnerisch SI-Werte von Null.  Diese sagen aber nichts über die tatsächliche Sichtbarkeit, bzw. den Nutzen der betreffenden, hochspezialisierten  Nischenwebsites für die Mitglieder der kleinen Zielgruppen aus.

Fazit:  Je "nischiger" und thematisch ausgefallener eine Domain bzw.  die zuweisenden Backlinks sind,  umso  weniger sichtbar ist die Website und um so seltener sind die entsprechenden Leit-Suchbegriffe  in den Datensammlungen der von den SI-Tools ausgewerteten Google-Suchbegriffe zu finden.