9.11.2024
Im Internet beworbene "Sichtbarkeitsindices"
haben mit Wisenschaft nichts zu tun.
Sie basieren auf von Privatunternehmen
durchgeführten generischen, nicht
standardisierten Modell-Kalkulationen.
Sie sagen nichts über die
Nutzung spezialisierter Nischen-Websites aus.
"Pfeif auf die Sichtbarkeit!"- meint
die auf das Thema SEO fokussierte Website
www.seokratie.de .
Pfeifen soll
man auf die Nutzung undurchschaubarer,
nicht standardisierter Daten
privater Unternehmen -
"Sichtbarkeitsindex" genannt. Die aus
fragwürdigen Quellen stammenden
Datensammlungen werden dazu benutzen, um
beeindruckend aussehende Grafiken
- sog. "Sichtbarkeitsindices"
zu generieren und die Eregebnisse der
unwissenschaftlichen Kalkulationern an Nutzer
der Dienstleistung zu
verkaufen, die die statistischen
Hintergründe des Geschäftsmodells
"Sichtbarkeitsindex" nicht
einmal ansatzweise verstehen.
Die Aussagen der im Hintergrund
arbeitenden Algorithmen eines
Sichtbarkeits-Index-Programms kann man
ernst nehmen - oder
besser eher nicht.
Vom Prinzip her sind
sie
nämlich ähnlich trügerisch wie jene
"wissenschaftlichen" Daten, die
mit Hilfe von fragwürdigen Methoden wie Astrologie, Wahrsagen, Kaffeesatz
lesen oder auspendeln von Diagnosen gewonnen werden.
Auf korrekte Messdaten -bezogen auf die Vergangenheit-
haben die Betreiber der zu
analysierenden
Websites unmittelbaren Zugriff. Sie
haben daher keinen begründbaren Bedarf
an einem errechneten Sichtbarkeitsindex.
Ein beliebiger Sichtbarkeitsindex bietet
laut der Produktwerbung angeblich
Einblicke in den SEO Erfolg einer Domain
mit Blick auf den Google-Suchindex.
Der Index soll anzeigen, wie
wahrscheinlich es ist, Besucher
durch Suchmaschinen-Treffer zu gewinnen.
Er soll insbesondere auch eine
Mess-Kennziffer des Erfolgs eigener
SEO-Maßnahmen sein.
Dies st überflüssig, da der Betreiber
einer Website ja jederzeit Direktzugriff
auf die gespeicherten unbearbeiteten
Zugriffs-Rohdaten hat.
Besitzt eine
Website nur wenige Keyword-Rankings,
dann liefert ein Sichtbarkeitsindex für
den Webmaster keinen Nutzen. Das
betrifft auch kürzlich veröffentlichte
Websites und besonders Nischen-Websites
mit Keywords, nach denen selten gesucht
wird (niedriges Suchvolumen ).
Eine Website ist
immer dann potentiell erfolgreich, wenn viele
Backlinks auf sie verweisen und die publizierten
werbenden Inhalte bei
der Recherche nach
thematisch in Frage kommenden
Leit-Suchbegriffen in
möglichst vielen Suchmaschinen gut sichtbar
sind
(Seite 1, Linksegment 1.-10.) -und daher von
den Mitgliedern der Zielgruppen unkompliziert gefunden
und aufgerufen werden können.
Doch
ein Top-Ranking sagt nur etwas darüber aus,
wie gut die Sichtbarkeit der Links in den
jeweiligen Suchmaschinen ist -
aber nichts darüber, was sich aus der guten
Sichtbarkeit praktisch ergibt - wie
Seitenaufrufe, Besuche im online Shop
oder gar aktuelle Verkäufe von
Produkten, bzw. Dienstleistungen.
Es kommt hinzu, dass in die Kalkulationen
der generischen Software nur
Google-Zugriffsdaten einfließen -
nicht aber
die Daten der zahlreichen anderen
weltweit etablierten Suchmaschinen, die
wie Bing, Yahoo oder Yandex auf den Microsoft-Bing-Datenpool
zurückgreifen und mittlerweile in
bestimmten Regionen nahezu jede
zweite Suchanfrage beantworten (laut der
Microsoft Bing KI Copilot waren es
2023 in Deutschland bereits
48%).
Je höher
also die Zahl der existierenden
zuweisenden Qualitäts-Backlinks ist, um
so größer ist die Chance für eine generell
verbesserte Sichtbarkeit des
analysierten Internet-Auftritts.
Die
HTML-Seiten des Info-Netzwerk Medizin
2000 werden von
den Nutzern - laut
der automatisch erstellten logfiles des
Internet-Providers IONOS - pro Tag
einige zehntausend mal aufgerufen.
Und derzeit verweisen mehr als 250.000
Qualitäts-Backlinks beispielsweise auf
die Portal-Website
www.medizin-2000.de und deren
veröffentlichte Unterverzeichnisse.
Wichtig ist
das Ranking populärer
Leit-Suchbegriffe in Suchmaschinen wie
Bing, DuckDuckGo, Yahoo und Yandex
-
die
für die eigenen Suchfunktionen den
Suchindex von Microsoft Bing nutzen.
https://lahave-media.com/ranking-erfolge/presseerklaerungen.html.
Die umstrittenen Analyse-Tools
privater Anbieter versuchen mit Hilfe
der Zahl der in der Vergangenheit
erfolgten Aufrufe
bestimmter Suchbegriffe die in Zukunft zu erwartende Zahl
( sog. Traffic )
bei individuellen Websites vorherzusagen. Was natürlich
schon aus Sicht der Logik
unwissenschaftliche
Spekulation ist. Man kann auch nicht
aufgrund der Lotto-Ergebnisse der
Vergangenheit zukünftige
Lotto-Ergebnisse vorhersagen. Man kann
zwar - doch das ist reines Kaffeesatz
lesen.
"Wie aussagekräftig ist ein
von Privatfirmen errechneter Sichtbarkeitsindex?" fragt
die Redaktion einer anderen Website
(https://www.seo-kueche.de
) -
und gibt den Skeptikern Recht:
"Ein errechneter Sichtbarkeitsindex ist
lediglich eine Metrik von vielen, um
beispielsweise im
Rückblick den Erfolg oder Misserfolg von
kürzlich durchgeführten SEO-Maßnahmen
erraten zu können.
Aber ein Anstieg im Sichtbarkeitsindex ist nicht automatisch mit einem
ansteigenden organischen Traffic
(Zahl der tatsächlich erfolgten
Seitenaufrufe) verbunden. Genauso gut kann der
organische Traffic auch sinken, obgleich der
errechnete Sichtbarkeitsindex der
Website
ansteigt."
Nischen-Internet-Auftritte
wie die hochspezialisierten
Medizin-Mikro-Websites des Info-Netzwerk Medizin 2000 informieren definitionsgemäß in erster Linie über
möglichst eng gefaßte Nischen-Themen aus der Medizin. Die zu diesen
Projekten passenden Leit-Suchbegriffe (keywords) sind
auf der überwältigenden Mehrzahl der im
Internet veröffentlichten Websites nicht
enthalten und können so schon von der
Menge her
in den Google-Datenbanken nicht für
statistischen Kalkulationen verwendet
werden.
Was
logisch erklärt, warum ein
irgendwie geschätzter
"Sichtbarkeitsindex" oft selbst bei
tatsächlich sehr gut sichtbaren,
tausendfach
aufgerufenen Nischen-Websites
rein rechnerisch bei Null liegt.
Einige zufällig ausgewählte Beispiele für die in der Vergangenheit
bei populären Leit-Suchbegriffen in den
als "Google-Alternativen" bekannten
Suchmaschinen erzielte Ranking-Erfolge
sind hier zu sehen.
|