Die Mehrzahl aller kommerziellen Medizin-Websites haben in den Suchmaschinen mit dem Problem einer sub-optimalen Sichtbarkeit ihrer Text-Informationen  zu kämpfen. 

Bei den meisten thematisch in Frage kommenden Leit-Suchbegriffen, nach denen die Besucher tatsächlich recherchieren, tauchen zu der Website verweisende Links  nicht auf Seite 1 der aktuell generierten Recherchelisten,  im  populären Link-Segment 1.-10. auf.

Die Unternehmens-Website kann dann die Öffentlichkeitarbeit und das online Marketing nicht optimal unterstützen, da die werbenden Informationen im Internet nur schwer zu finden sind.

Diese 5 weit verbreiteten Vorurteile, und die sich daraus ergebenden Fehlentscheidungen,  erschweren  Problemlösung:

 

 

Vorurteil 1: der Google-PageRank ist wichtig

Das Vorurteil, dass der sog. "Google PageRank" in den Suchmaschinen über die Ranking-Positionen und damit die  Sichtbarkeit einer Website  entscheidet,  trifft schon seit vielen Jahren nicht mehr zu.

mehr lesen

 

Vorurteil 2: Backlinkstrategie  -"viel hilft viel"

Ein weit verbreitetes Vorurteil lautet:
"Je mehr Backlinks auf die eigene Website verweisen, um so besser ist das Ranking in den Suchmaschinen  -  und damit die Sichtbarkeit im Internet. "

Das war vor vielen Jahren tatsächlich so - heute ist diese Meinung aber überholt.   Längst ist die Zahl der Backlinks nicht mehr wichtig für die Bewertung einer Website durch die Suchmaschinen. Derzeit kommt es weniger auf die Zahl der Backlinks an, sondern viel mehr auf die "Qualität" der von den Backlink-Trackern entdeckten Links.

mehr lesen

 

Vorurteil 3:  "das Web-Design und die Text-Qualität sind für den Erfolg einer Website von entscheidender Bedeutung".

Viele Internet-Publizisten meinen, dass neben einem gelungenen Design der Website die semantische und wissenschaftliche Qualität der publizierten Texte entscheidend dafür sind, dass die Suchmaschinen die jeweilige Website in den generierten Recherchelisten weit oben (sog. Top-Ranking) in ihren Index einsortieren.

Diese Annahme ist völlig falsch.  Die   Suchmaschinen-Algorithmen können weder das Design einer Website, noch die wissenschaftliche Qualität der veröffentlichten Informationen analysieren und bewerten. Nur in seltenen Fällen sind Menschen in den Bewertungsvorang involviert.  Und dann geht es um Politik und nicht um Wissenschaft.

Daher kommt es vor, dass konventionell gestaltete Websites mit fragwürdigen Texten in den Suchmaschinen besser sichtbar sind,  als Websites, die mit großem Zeit- und Finanzaufwand gestaltet wurden und seriöse wissenschaftliche Informationen präsentieren.

Für die Ranking-Positionen sind erster Linie Faktoren wichtig,  die von den Herausgebern einer Website kaum,  bzw. nicht zu  beeinflussen sind. 
In erster Linie kommt es auf die Zahl der zuweisenden Qualitäts-Backlinks an.

In die Bewertung einer Website fließt auch ein, wie oft die Texte erneuert und ergänzt werden.

mehr lesen

 

Vorurteil 4:  Google sortiert und  listet Links wertneutral.

Dies gilt nicht mehr,  seit es das Problem der sog. "Google-Filterblase" gibt.

Immer häufiger sehen Google-Nutzer nämlich bei einer Recherche "manipulierte" Such-Ergebnisse.  Diese sind dann nicht, wie noch vor wenigen Jahren üblich, mit jenen Such-Ergebnissen identisch, die ein anderer Nutzer bei einer zeitgleich auf einem anderen Computer durchgeführten Recherche nach dem gleichen Suchbegriff  angezeigt bekommt.
Der Google-Such-Algorithmus orientiert sich immer mehr an der persönlichen Such-Vorgschichte des jeweiligen Individuums auf dem jeweiligen Computer. 

Google listet bevorzugt jene Links auf, von denen der Algorithmus annimmt, dass sie am besten zu den aktuellen Informations-Interessen des  Nutzers passen.
Der Nutzer bekommt dann beispielsweise vermehrt Links angezeigt, die zu Inhalten des eigenen Internet-Auftritts verweisen, da er diese Seiten  in der Vergangenheit oft aufgerufen hat.
Dadurch entsteht beim Nutzer zwangsläufig ein unrealistisch positiver Eindruck vom Erfolge der eigenen online Öffentlichkeitsarbeit, bzw. seines online Marketings. 

Doch nur er selbst sieht die Ergebnisse der Rechercheliste - den Mitgliedern der Zielgruppen werden oft  abweichende Rechercheergebnisse angezeigt,  die weniger positiv ausfallen.

mehr lesen

 

Vorurteil 5:  ein von Analyse-Tools errechneter sog. "Sichtbarkeitsindex" soll angeblich dabei helfen, den  kommerziellen Nutzen einer Website einzuschätzen.

Diese Ansicht beruht auf falschen Annahmen und führt daher zwangsläufig in die Irre. Diese beliebten Tools haben meist keinen nachweisbaren Nutzeffekt. 
Um den sog. Sichtbarkeitsindex zu errechnen, nutzen die Hersteller der Tools einige hunderttausend Suchbegriffe aus allen Lebensbereichen und versuchen durch Verwertung in der Vergangenheit angefallener bruchstückhafter Daten,  für bestimmte Websites die Häufigkeit zukünftiger Seitenaufrufe (Traffic) vorherzusagen.  Eine Art "Kaffeesatz lesen".

Dies gelingt bei spezialisierten "Nischen-Websites" , wie beispielsweise bei Medizin-Websites, nicht einmal ansatzweise.  Hier sind die  von der generischen Software kalkulierten "Sichtbarkeitsindices" falsch und daher nutzlos, da die für diese Nischen-Websites wichtigen Suchbegriffe in den Schlüsselwort-Sammlungen der jeweiligen Tools kaum oder überhaupt nicht enthalten sind.
Nischen-Websites können daher aufgrund der Rahmenbedingungen auch dann keinen guten Sichtbarkeitsindex erzielen - wenn sie im Internet perfekt zu sehen sind.

Die tatsächliche Sichtbarkeit läßt sich nur anhand der automatisch in den logfiles der Internet-Provider abgespeicherten Zahl der tatsächlichen Seitenaufrufe zuverlässig beurteilen.
mehr lesen

Vorurteil 6: es ist bei der onpage SEO besonders wichtig, die Seiten unter Beachtung der internen Google-Regeln zu optimieren.

Natürlich schadet es nicht, wenn man sich bemüht, den Google-Regeln zu entsprechen. Doch dies ist praktisch aufwändig aber meist nutzlos, da auch alle Mittbewerber den gleichen Regeln folgen. Ws handelt sich sozusagen um ein Nullsummen-Spiel.
Die Such-Kunden von Google beachten laut zahlreicher wissenschaftlicher Auswertungen der Daten im Regelfall nur die auf Seite 1 der in Echtzeit generierten Rechercheliste  angezeigten Links 1.-10.  Und weniger als 5% der Nutzer beachten auch die Treffer 11.-20. Für die Mehrzahl der Internet-Publizisten ist es ohne Bedeutung, ob sie überhaupt in Google gelistet werden - niemand findet die Websites wenn er nicht direkt nach dem Firmen- oder Produktnamen sicht. Doch wer kennt diese?

Da alle Herausgeber von Websites ihre Seiten möglichst Google-konform gestalten, oder gestalten lassen,   passen selbst optimal konzipierte Seiten nicht in das beachtete Linksegment 1.-10. (1.-20). 

Immerhin sind bei den meisten Suchbegriffen zehn-  bis hunderttausende von Links gelistet, von denen nur die ersten zehn beachtet werden.

Es hat aber keinen Nutzeffekt, wenn Websites nach der aufwändigen und teuren Optimierung in Google beispielsweise von Rang 10.554 auf Platz 943 vorrücken. 

Viel wichtiger ist es daher in der Praxis, dass die Links zu den eigenen Webseiten in  "Google-Alternativen"  wie Microsoft Bing, DuckDuckGo, MetaGer oder Ecosia gut platziert sind. Und diese Google-Mitbewerber beachten die immer ausgefeilteren Google-Regeln meist kaum oder nicht.