Der Umgang mit den im Internet angebotenen Tools, die individuell unterschiedliche Versionen eines sog. Sichtbarkeitsindex errechnen, ist durch gravierende Missverständnisse überschattet. Anders als es die genutzte Bezeichnung vermuten läßt, sagt ein Sichtbarkeitsindex (SI) nichts über die tatsächliche Sichtbarkeit einer Website aus. Die Entwickler des ersten und heute vielverwendeten Sichtbarkeitsindex (Sistrix) schreibt über das Missverständnisso: "Was soll der Sichtbarkeitsindex (SI) messen" "Der Sichtbarkeitsindex wurde entwickelt, um die Veränderungen der Rankings einer Domain in den organischen Suchergebnissen von Google in einer einzigen Kennzahl zu verdichten." Es ging den Programmierern des SI also nicht darum, die Sichtbarkeit einer Website objektiv zu erfassen, sondern es sollen Veränderungen in der Sortier-Reihenfolge häufig verwendeter Google-Suchbegriffe erfasst werden und mit Blick auf individuelle Domains bzw. der dort publizierten Keywords erfasst werden und zu diesen Schlüsselbegriffen rechnerisch in eine willkürliche Beziehung gesetzt werden. Die Intention des Herausgebers der zu analysierenden Website in Bezug auf die Auswahl der im Sourcecode veröffentlichten Keywords fließt nicht in die SI-Berechnung ein. Der Algorithmus des SI Tools und die Meinung des Eigentümers der zu analysierenden Domain kommen oft bei der Bewertung der Wichtigkeit der Keywords zu unterschiedlichen Ergebnissen. Viele Webmaster listen eine große Zahl von Keywords in der Hoffnung, dass sich dies positiv auf die Sichtbarkeit der Website auswirkt. Die Frage kann nicht beantwortet werden, welche Suchbegriffe sind für die geschäftlichen Absichten des Herausgebers der Website wichtig - und welche nicht. Dieser Umstand ist ein entscheidender Schwachpunkt bei der generellen Beurteilung der Ausagekraft eines SI. Praktisch erfahrene IT-Experten raten daher davon ab, die Metrik der SI für anstehende Entscheidungen zu nutzen. Auf der Experten-Website online-profession.de wurde eine vernichtende Kritik an den generischen Sichtbarkeitsindices veröffentlicht: "...Ich habe einige Zeit benötigt, Kunden klar zu machen, dass ein Sichtbarkeitsindex für die Beurteilung der Leistungsfähigkeit einer Internetseite nicht aussagekräftig ist. Wir haben häufig beobachtet, dass die Entwicklung des Sichtbarkeitsindex einer Website konträr zur tatsächlichen Sichtbarkei/Besucherentwicklung verläuft und raten daher dringend von der isolierten Betrachtung der Sistrix-Daten ab". Siehe hier. In diesem Artikel wird das Fazit des Mitbewerbers "Seokratie" (www.seokratie.de) so zitiert: "Meine Kernaussage: "Ein Sichtbarkeitsindex von 2 oder 10 sagt absolut nichts über dern Wert eines Links, einer Website oder der Zahl der Besucher der Website aus". Diese desillusionierende Aussage eines erfahrenen Internet-Praktikers führt zu der griffigen Überschrift und Empfehlung "Pfeif auf die Sichtbarkeit". Siehe hier. Die umstrittenen SI-Tools haben also - anders als ihre Bezeichnung vermuten läßt - nichts mit der tatsächlichen Sichtbarkeit einer Website im Internet zu tun. Der Anbieter des meist verwendeten SI (Sistrix) warnt daher ausdrücklich vor der weit verbreiteten Fehldeutung ihres rein rechnerisch generierten SI als SEO-Trafik-Index - mit dem ein SI aber nichts zu tun hat - bzw. nach Ansicht des Herstellers des Produkts auch nichts zu tun haben soll. Wie ermittelt man die tatsächliche Sichtbarkeit einer Website? Entscheidend für die Ermittlung der tatsächlichen Sichtbarkeit einer Website ist ausschließlich die Zahl der zuweisenden Qualitäts-Backlinks und die sich daraus ergebenden SERPS (Search Engine Result Page ) - also der in den in Echtzeit generierten Linklisten auf Seite 1 - im exklusiv genutzten Linksegment 1.-10. - angezeigten Backlinks. Und dies in möglichst vielen relevanten Suchmaschinen. Die SI-Tools sagen schon deshalb nichts über die tatsächliche Sichtbarkeit einer Website aus, da sie bei den durchgeführten Berechnungen nur die Google-Datenbanken für Suchanfragen berücksichtigen - sortiert nach der Häufigkeit der wichtigsten Suchanfragen. Ein hoher SI-Wert kann also mit einer schlechten tatsächlichen Sichtbarkeit einhergehen - und ein niedriger , bzw. gar Null-SI-Wert , kann mit einer guten tatsächlichen Sichtbarkeit der Website gekoppelt sein. Die Sichtbarkeit einer Website ergibt sich also in erster Linie aus der Zahl zuweisender Backlink und dem prozentalen Anteil der Links, bei denen die für die Sichtbarkeit einer Website ausschlaggebenden Dofollow-Attribute aktiviert sind. Anzustreben ist ein Anteil von 100%. Dann werden aus normalen Backlinks automatisch "Qualitäts-Backlinks". Websites sind dann gut sichtbar, wenn zuweisende Links in möglichst vielen relevanten Suchmaschinen bei der Recherche nach populären Leit-Suchbegriffen auf der Seite 1 der generierten Linkliste im Linksegment 1.-10. angezeigt werden. Links auf nachfolgenden Seiten der Linkliste sind ohne praktischen Wert, da wissenschaftliche Studien gezeigt haben, dass 99,3% der Nutzer nur die ersten zehn Links beachten. Weiter hinten einsortierte Backlinks wirken sich kaum auf die Sichtbarkeit einer Website aus. Viele Nutzer sind vom Thema IT fachlich überfordert, da sie Quereisteiger sind und elektronische Datenverarbeitung nicht als Ausbildungsberuf erlernt oder sogar studiert haben. Viele fragen sich, "Wozu kann ein SI überhaupt verwendet werden?" Es gibt eigentlich nur eine sinnvoll erscheinende Anwendung dieser Tools: Ein SI gilt bei vielen Nutzern des Internets als "Goldstandard" für die Analyse des Erfolgs der von ihnen selbst zeitnah durchgeführter SEO-Maßnahmen. Sie stellen die Frage, wie sich diese Änderungen auf die Sortierreihenfolge der wichtigsten Google-Suchbegriffe in der auszuwertenden Datenbank auswirkt. Doch selbst in diesem Sonderfall ist ein aktueller SI wenig hilfreich, da sich nur Unterschiede in der Sortier-Reihenfolge erfassen lassen - die Ursachen dieser Veränderungen sind und bleiben unbekannt. Sie sagen nichts über den Erfolg der vorgenommenen SEO-Massnahmen aus. Sie öffnen lediglich unwissenschaftlichen Spekulationen Tür und Tor. Also auch hier ist ein zuverlässiger praktischer Nutzen des SI nicht zu erkennen. Und natürlich sagt die Auswertung von in der Vergangenheit erfasster Google-Suchvorgänge nichts über die zukünftige Sichtbarkeit und konkrete zu erwartende Seitenaufrufe einer Domain aus. Ein SI beschreibt also den rechnerischen status quo der Sortierreihenfolge häufig verwendeter Suchbegriffe in Google - gibt aber keine Hinweise darauf , wie es zu den Änderungen im jeweiligen Google-Suchindex kam und was man aktiv tun kann, um den SI, bzw. die Sortierung der Suchbegriffe, gezielt und reproduzierbar zu beeinflussen. Ein SI ist also als Tool für die Prognose zukünftiger Veränderungen im Google-Suchindex nicht geeignet. Mark Twain brachte es exakt auf den Punkt "Prognosen sind immer dann besonders schwierig, wenn sie sich auf die Zukunft beziehen." Wie wird ein SI errechnet? Statistisch erfasst und rechnerisch aufbereitet werden von den SI-Tools unterschiedlich große, mehrmals in der Woche aktualisierte regional erstellte Datenbanken, die jeweils einige 100.000 häufig verwendete Google-Suchbegriffe enthalten, die nach der Häufigkeit der gestellten Google-Suchanfragen sortiert sind. Durch die Auswertung der Sortier-Reihenfolge der Google-Suchbegriffe in den genutzten Datenbanken wird ein SI errechnet, und in Beziehung zu den Keywords gesetzt, die auf der zu analysierenden Website in dem Source-Code aufgelistet sind. Der errechnete SI existiert dann zwar als Zahl - er hat aber keinen reproduzierbaren Nutzen und kann keinen Mehrwert erzeugen - z.B einen erhöhten ROI (Return on Investment) . Ein wichtiger Nachteil eines SI wird meist ignoriert: Mittlerweile gibt es mit den sog. "Google-Alternativen" nämlich eine Gruppe zunehmend häufig genutzter Suchmaschinen, die den Microsoft Bing Suchindex für die auf der eigenen Website eingebettete Suchfunktion nutzen und einen immer größer werdenden Anteil der weltweit anfallender Suchanfragen bearbeiten. Unter anderem sind dies Software-Produkte wie Microsoft Bing, Dogpile, DuckDuckGo, Fireball, Lycos, QWant, SwissCows, Yahoo und Yandex. Diese Suchmaschinen bearbeiten derzeit täglich etwa 400 Millionen Suchaufträge. Dies entspricht etwa 4,6% der weltweit gestellten Suchanfragen. In den DACH-Ländern (Deutschland, Österreich und der Schweiz) machen sie mittlerweile etwa 24% der abgearbeiteten Suchanfragen aus. Das sind pro Tag nahezu 100 Millionen Suchvorgänge. Diese Daten werden von den ausschließlich auf Google-Suchanfragen basierenden Algorithmen der SI-Tools nicht berücksichtigt. Warum haben gut sichtbare, populäre Websites gelegentlich einen niedrigen oder keinen errechneten SI ? Die Herausgeber hochspezialisierter sog. "Nischenwebsites" haben ein Problem bei der Nutzung der SI-Tools: viele für sie relevante Suchbegriffe kommen in den für die SI-Analysen verwendeten Datensammlungen der häufigsten Google-Suchanfragen überhaupt nicht vor, bzw. sind aufgrund der ausgefallenen Thematik der Website in den Datensammlungen so unterrepräsentiert, dass sie sich auf die SI-Berechnungen nicht auswirken. Ein SI kann im Extremfall aufgrund fehlender verwertbarer Daten für Nischenwebsites nicht errechnet werden. Es handelt sich bei den Nischenwebsites um Internet-Auftritte, die vom Mainstream abweichende Themen und Produkte , bzw. Dienstleistungen vorstellen, deren ausgefallene Keywords in den “Keyword-Sammlungen” der Google-Suchbegriffe der SI-Tools kaum - oder gar nicht vorkommen. Typische Suchbegriffe sind beispielsweise in den Medizin-Mikro-Websites des Info-Netzwerk Medizin 2000 exotisch klingende Begriffe wie Hodgekin-Lymphom, Propolis, Krillöl, ASMR, fleisch-aus-stammzellen, pegane-ernaehrung, B-Zell-Lymphom, mpl-adjuvans, apitherapie oder auch chronisches-fatique-syndrom. Diese und viele ähnliche Begriffe, die den meisten Google-Nutzern unbekannt sind, kommen in den zur Analyse verwendeten Datenbanken der Google-Suchanfragen daher nicht, bzw. unterepräsentiert vor. Unter den meistverwendeten Google-Suchbegriffen sind sie nicht. Daraus resultieren SI-Werte von Null, die nichts über die tatsächliche Sichtbarkeit der betreffenden Websites aussagen. Nach derartigen Nischenthemen suchen naturgemäß nur wenige Google-Nutzer und dementsprechend minimal ist ihre Präsenz im jeweiligen auszuwertenden Google-Suchindex, der sich ja ausschließlich auf die meistverwendeten Google-Suchbegriffe fokussiert. Es kommt daher vor, dass tatsächlich im Internet gut sichtbare Nischenwebsites, bzw. Websites mit unkonventioneller Struktur, auf Dauer einen irritierenden SI von 0.000 haben und daher aufgrund von Fehlinterpretationen schnell von IT-Laien als "unsichtbar" eingestuft werden. Die rund 600 Medizin-Mikro-Websites des Info-Netzwerk Medizin 2000 bestehen oft nur aus einer einzigen Seite auf der die wichtigsten zum Spezialthema passende Informationen in Form von Linksammlungen und WIKIPEDIA-Teasern zusammengefaßt eingefügt sind . Die thematisch in Frage kommenden ausgefallenen Keywords werden von anderen Websites kaum verwendet, bzw. die Nutzer von Google kennen sie überhaupt nicht, bzw. haben keinen Anlaß nach ihnen zu suchen. Fazit: Je "nischiger" und thematisch ausgefallener eine Domain ist, umso weniger sichtbar ist sie in den regional erstellten und genutzten SI-Tools. Nur konventionell konzipierte und strukturierte "Mainstream-Websites", haben mit ihren populären Themen und Keywords - im Gegensatz zu Nischenwebsites - hohe SI-Werte, die aber dessen ungeachtet keinen praktischen Nutzeffekt haben. |