Posts mit dem Label Panda werden angezeigt. Alle Posts anzeigen
Posts mit dem Label Panda werden angezeigt. Alle Posts anzeigen

Sonntag, 11. November 2012

Neues von der SEO-Front: WDF*P*IDF und Relevanz

"Content is King" lässt der Quasi-Suchmaschinenmonopolist Google immer wieder verkünden. Aber das wussten wir Autoren, Journalisten und Blogger auch vorher bzw. wir schreiben, weil wir was zu sagen haben. Allerdings: Seit wir für das Internet schreiben, wissen wir auch, dass Schlüsselwörter (Keywords) richtig gewählt und eingearbeitet werden müssen, dass Verlinkung eine Rolle spielt und Ähnliches mehr, damit die Suchmaschine mit ihrem beschränkten Algorithmus unseren schönen Online-Artikel nicht auf Platz 5.345.789 ihrer Ergebnisliste aufführt - quasi unsichtbar für alle, die über Suchmaschinen nach Inhalten suchen (siehe auch: Blogs bekannt machen). Nun gibt es neben Keyword-Optimierung und Backlink-Aufbau wieder neue Buzzwords in der Suchmaschinenoptimierungs- (SEO) Welt - und die heißen WDF*P*IDF (Gewichtungsformel) und Relevanz. 

Ich schreibe und veröffentliche auf meinen Webseiten und in meinen Blogs über Themen, die mir am Herzen liegen und/oder zu denen ich selbst jahrelang Erfahrungen gesammelt habe. Ähnlich der philosophischen Frage um den Baum, der im Wald umfällt, ohne dass es jemand hört: Bin ich ein Autor/Journalist dadurch, dass ich schreibe? Oder werde ich erst dazu, wenn jemand meine Artikel oder Bücher liest?

Ich jedenfalls möchte, dass die Ergebnisse meiner Schreibarbeit, die ich liebe, die aber oft auch mühselig ist, gelesen werden. Deshalb befasse ich mich mit Suchmaschinenoptimierung (SEO). Um von meiner Online-Schreiberei (vielleicht irgendwann) einmal leben zu können, platziere ich zudem Werbung auf meine Webseiten.

Es gibt aber auch eine andere Herangehensweise: Menschen, die nicht selbst das Bedürfnis zu schreiben haben (außer über SEO), aber Geld im Internet verdienen möchten, prüfen mit verschiedenen Tools (beispielsweise mit dem Google Keyword Tool), mit welchen Themen man prinzipiell hohe Werbeeinnahmen via Google Adsense o. a. erzielen kann. Dann lassen sie zu dem Thema bzw. zu einem bestimmten Keyword oder einer Keyword-Kombinationen möglichst preisgünstig und suchmaschinenoptimiert einen Text schreiben und veröffentlichen diesen auf einer Webseite. Sie platzieren Werbung auf der Seite, sorgen für Verlinkung und ergreifen weitere SEO-Maßnahmen, damit sie mit dem eingekauften Text Geld verdienen können.

Man mag von dieser Vorgehensweise halten, was man will - es gibt nicht nur Schwarz und Weiß -, man kann von diesen SEO- und Online-Marketing-Profis einiges lernen. Ich habe damit zuerst aus Verzweiflung begonnen, als ich feststellte, dass ich durch deren Webangebote zunehmend von meinen guten Positionen im Internet verdrängt wurde, die ich hatte, weil meine Seiten schon sehr alt aus Zeiten ohne Konkurrenz waren (und zugegebenermaßen auch eine Überarbeitung nötig hatten). Inzwischen befasse ich mich unregelmäßig mit dem Thema SEO, auch wenn ich SEO nur in Maßen anwende, weil ich mich nicht von einer Suchmaschine und ihren Algorithmus-Updates (Panda, Penguin und wie sie alle heißen) gängeln lassen möchte.

Relevanz - was ist das?

Die Relevanz eines Textes ist der Mehrwert, den er einem Leser zu einem bestimmten Suchwort bietet. Das hört sich zunächst gut und leserfreundlich an. Doch die Relevanz von Texten im Internet wird von einem Suchmaschinenalgorithmus berechnet, der simple Eckdaten miteinander verrechnet, die Ergebnisse miteinander vergleicht und dementsprechend die Suchergebnisse sortiert. Hier hat sich insofern etwas getan, dass es nicht mehr nur auf das Haupt-Keyword ankommt, sondern auch auf verwandte ("relevante") Keywords im gleichen Artikel.

Aus SEO-Sicht heißt das: Statt wie bisher ein Keyword zu bestimmen und dieses in einer bestimmten "Keyword-Dichte" im Text und außerdem im Seitentitel, in Meta-Descriptions, Überschriften, Bildunterschriften, Bild-Title-Tags etc. unterzubringen, müssen nun zusätzlich Relevanzwerte berechnet werden. Die Relevanzwerte des eigenen Artikels müssen besser oder in einem besseren Verhältnis zueinander sein, als die in Artikeln von den Mitbewerbern, sonst reicht es nicht in die Sichtbarkeitszone der Suchmachinenergebnisse. Ein Aspekt der neu entdeckten Relevanz ist, dass nicht nur das Haupt-Keyword ausreichend oft im Text vorkommen muss (wie oft "oft genug" oder "zu viel" ist, weiß man nicht wirklich), sondern auch andere Keywords, die einen Bezug zu diesem Keyword haben - allerdings dürfen sie dem Haupt-Keyword auch nicht zu viel Konkurrenz machen, wie man weiter unten sieht.

Statt Keyword-Dichte lieber Gewichtungsformel?

Mit einem Keyword und der Keyword-Dichte kommt man nach Aussagen einiger SEO-Profis, so z. B. Karl Kratz (Links siehe unten) heutzutage nicht mehr weit. Mehr Aussagekraft habe die Gewichtungsformel oder WDF*P*IDF.

Die Gewichtungsformel WDF*P*IDF ist das Produkt von
WDF, IDF und einem Korrekturfaktor P

WDF und IDF sind Begriffe aus der Textstatistik:
  • WDF steht für Within-document Frequency (Dokumentspezifische Gewichtung).
    Die WDF beschreibt die Häufigkeit eines Wortes i im Verhältnis zur Gesamtzahl aller Worte L in einem Dokument j - bzw. in unserem Fall: die Häufigkeit eines Keywords bzw. einer Keyword-Kombination im Verhältnis zu allen Keywords/Keyword-Kombinationen im Text. Je öfter ein Keyword bzw. eine Keyword-Kombination in einem Text vorkommt, desto größer ist der WDF-Wert. Das ist im Prinzip nichts Neues. Im Gegensatz zur Keyword-Dichte wird der WDF mit Logarithmen berechnet. Mehr Details z. B. bei Wikipedia. 
  • IDF steht für Inverse Document Frequency (Inverse Dokumenthäufigkeit).
    Der IDF setzt die gesamte Anzahl ND von Dokumenten einer Datenbank zur Anzahl f der Dokumente, die ein bestimmtes Keyword/Keyword-Kombination t enthalten. Je größer der IDF, desto weniger Dokumente gibt es in der Datenbank, die das Keyword/Keyword-Kombination enthalten. 
Das Produkt WDF*IDF für ein Keyword ist also rein rechnerisch am besten, wenn das Keyword-/Keyword-Kombination oft im Text vorkommt, es aber gleichzeitig noch wenig andere Dokumente mit diesem Keyword/Keyword-Kombination gibt.

P ist nur ein Gewichtungswert (Korrekturfaktor).

Kratz hat festgestellt, dass es eine Relation zwischen WDF*IDF und der Position in den Suchmaschinenergebnissen (Search Engine Results Position, SERP) gibt. Je höher WDF*IDF, desto besser i. d. R. die Position in den SERPs. Das ist jetzt eigentlich nicht überraschend oder neu, sondern wird nun eben mathematisch ausgedrückt. Kratz hat außerdem bemerkt, dass viele zu einem Keyword gut positionierte Seiten eines gemeinsam haben: dass der WDF*IDF für dieses Keyword deutlich höher ist, als für andere Keywords/Keyword-Kombinationen in dem Text. Eindeutigkeit ist also Trumpf.

Grundlegend neu sind diese Erkenntnisse nicht, man kann jetzt nur alles genauer berechnen. Man sollte bei aller Rechnerei nicht vergessen, dass man ein Keyword auch zu oft einsetzen kann und der Text dann möglicherweise von Google als Spam gewertet wird. Und wie Kratz auch sagt, gibt es ja auch noch andere Faktoren, die die Position in den Suchergebnissen beeinflussen können.

Beim Wettbewerber abgucken

Die neue Onpage-Optimierung mit dem Ziel der Verbesserung der Relevanz führt vor allem über die Mitbewerberbeobachtung - wie das geht, führen Karl Kratz und Philipp Helminger vor (Links unten). Sie analysieren die Mitbewerber-Webseiten und berechnen die WDF*IDF-Werte für die wichtigsten Keywords/Keyword-Kombinationen für die Seiten, an denen sie vorbeiziehen oder zumindest mithalten wollen. Aus den Ergebnissen der Mitbewerberbeobachtung erstellt beispielsweise Kratz die Vorgaben für seine Internettexte. Dann noch die restlichen SEO-Maßnahmen umgesetzt und fertig ist Platz 1 in den SERPs. Schön wäre es - oder auch nicht. Also wird noch weiter gefeilt: Keyword-Abstand, Keyword-Verteilung, partielle Keyword-Häufung, gezielter Einsatz artverwandter Keywords ... Ich frage mich, wo da bei all den Vorgaben noch Raum und Zeit für Inhalte und Sprachliches bleibt.

Noch interessant zu wissen: Helminger hat in seinen Untersuchungen festgestellt, dass bei manchen Keywords bzw. Keyword-Kombinationen die vorderen Plätze inzwischen mit sehr langen Texten belegt sind. Bei seinem Beispiel "HochgeschwindigkeitsSEO" liegen auf den ersten fünf Plätzen Texte mit 3.000 bis 8.000 Wörtern! Seine Empfehlung außerdem: Die Häufigkeitsverteilung relevanter Keywords sollte man an die der Top-Positionen für sein Haupt-Keyword anpassen.

Den Google-Algorithmus füttern - will man das?

Als Autorin, Journalistin und Bloggerin, die ich schon lange auch für das Internet schreibe, gefällt mir diese Entwicklung nicht und ich hoffe, dass sie nur vorübergehend ist. Es kann doch nicht sein, dass das gesamte "Schreibhandwerk" immer mehr, statt endlich weniger dem Algorithmus einer Suchmaschine untergeordnet werden muss, wenn man sichtbar bleiben möchte. Was ist mit der Verwendung von Synonymen, sprachlichen Bildern, etc.? So wichtig eine simplifizierte Sprache in der Technikdokumentation ist, wenn sie zur Alltagssprache wird, dann führt das zu einer Verarmung - nicht nur der Sprache, sondern auch des Denkens.

Ich möchte doch Wissen weitergeben, Diskussionen anregen, unterhalten, mich auf Recherche und das Schreiben konzentrieren, kreativ sein und mich, wenn überhaupt, dann nur am Rande mit SEO beschäftigen müssen.
Zum Glück gibt es noch einige gute Medien, für die es Spaß macht, zu schreiben, und die es aufgrund ihres Markennamens oder eben weil sie Printmedien sind, nicht nötig haben, mit Algorithmen-Fütterei zu buhlen und dafür Sprachvielfalt und -kreativität zu opfern. Doch für uns kleine Blogger und Webseiten-Publisher sind das gerade sehr schwere Zeiten - und sich als SEO-Texter ausbeuten zu lassen, kann auch nicht die Alternative sein. Dann doch lieber sich weiter selbst ausbeuten und Spaß haben.

Ansonsten bin ich der Meinung: Suchmaschinen müssen besser werden und Google braucht stärkere Konkurrenz, damit da mal was vorwärts geht.

Quellen und weiterführende Informationen

Freitag, 13. Juli 2012

Blog bekannt machen - Fortsetzung

Was sich durch die Google Algorithmus Updates Panda und Penguin verändert hat.

Dies ist eine Ergänzung zu den Blog-Posts vom vergangenen Jahr:
Blog bekannt machen Fortsetzung
Im ersten Blogbeitrag werden die Möglichkeiten beschrieben, wie man seinen Blog bekannt machen kann - denn wer schreibt, der will in der Regel auch gelesen werden. Im zweiten Blog-Post geht es speziell um die Suchmaschinenoptimierung (Search Engine Optimization, SEO) mit seriösen Mitteln - denn wer in den Suchergebnissen nicht vorne gelistet ist, ist im Internet praktisch unsichtbar. Wegen ihrer Quasi-Monopolstellung wird besonders auf die SEO für die Google-Suche eingegangen, denn wer keine gute Position in den Sucherergebnissen (Search Engine Results Positions - SERPs) von Google hat, dem fehlt eine wichtige Möglichkeit, Leser für seine Blogbeiträge zu finden.

Die Möglichkeiten, wie man einen Blog bekannt machen kann, sind zwar im Wesentlichen die gleichen geblieben und die wichtigste Voraussetzung für den Erfolg eines Blogs oder eines anderen Webangebotes ist immer noch Content, der einzigartig ist und dem Nutzer einen Mehrwert bietet - also informative und gut geschriebene Texte, Bilder, Videos, Anwendungen etc. Trotzdem sollte man ein paar Fallen kennen, die sich durch die Veränderungen des Google-Algorithmus aufgetan haben, damit man nicht von Google abgestraft wird (Google Penalty). Denn es kann auch Unschuldige treffen.

Blog bekannt machen
Achtung: Google Algorithmus Updates

Google möchte mit den Updates seines Suchalgorithmus die Suchergebnisse verbessern. Zum einen wurden das Suchverhalten und Bewertungen der User in den Algorithmus integriert. Zum anderen sollen Manipulatoren, die mit unlauteren Methoden (Black Hat SEO) arbeiten, von den vorderen Plätzen vertrieben oder ganz ausgeschlossen werden.

Die wichtigsten Google-Algorithmus-Updates heißen

Google Panda (begann im Februar 2011)
Durch die verschiedenen Google Panda Updates soll die Qualität der Blogs oder der Webseiten (Onsite-Kriterien) gecheckt und in den Algorithmus integriert werden: Ist der Content gut und einzigartig? Bietet er einen Mehrwert? Bleiben die Besucher auf der Seite oder fliehen sie gleich wieder?

Google Penguin (bekannt gegeben am 24. April 2012)
Durch Google Penguin wird neben Onsite-Kriterien wie Keyword-Stuffing (unnatürliche Wiederholung des Keywords im Text oder in den Meta-Tags) die Verlinkung (Offsite-Kriterien) gecheckt. Massenhaft Links von minderwertigen Domains/Seiten (z. B. von Linkschleudern - das sind Verzeichnisse, wo jeder Links eintragen kann, ohne dass es eine Qualitätsprüfung gibt) können sich negativ auswirken. Google bestraft auch, wenn Inhalte mehrmals im Netz vorhanden sind - ein Problem, wenn ein Unternehmen mit örtlichen Filialen die gleichen Texte (bis auf Anfahrtsinformationen o. ä.) auf alle lokalen Seiten stellt - was sachlich völlig logisch wäre. Aber auch für den normalen Blogger kann "duplicate Content" zum Problem werden, wenn die gleichen Inhalte über verschiedene URLs zu erreichen sind oder auch wenn Inhalte unberechtigt wiederverwendet wurden (Content-Klau) - wegen letzterem sollte man regelmäßig überprüfen, ob Inhalte des Blogs oder der Webseite kopiert und woanders noch einmal ins Netz gestellt werden (dafür gibt es Werkzeuge, z. B. Copyscape).

Leider zeigen Google's Maßnahmen zur Verbesserung der Suchergebnisse bisher nur mäßigen Erfolg, denn bei manchen Suchbegriffen (Keywords) sind immer noch einige nahezu inhaltslose Seiten voller Werbung auf den vorderen Plätzen vertreten. Andererseits wurden schon "unschuldige" Webseiten und Blogs abgestraft und flogen aus dem Index. Auf jeden Fall bibbern auch ganz normale Webseitenbetreiber und Blogger vor Angst wegen der Google Algorithmus Updates, denn Sichtbarkeit oder Unsichtbarkeit kann über die Existenz entscheiden - und am Drücker sitzt das Mega-Unternehmen Google mit seiner Quasi-Monopolstellung.

Manche Google Maßnahmen haben außerdem böswilligen Wettbewerbern, die Möglichkeit eröffnet, Blogs und Webseiten aus dem Index zu katapultieren, die sie loshaben wollen - z. B. indem sie massenweise Links von minderwertigen Linkschleudern zu einer konkurrierenden Seite setzen (was dann durch das Google Penguin Update geahndet wird) oder indem sie den Mitbewerber bei Google denunzieren - wozu Google aufgerufen hat.

Ergänzungen und Meinungen können gerne über die Kommentarfunktion hinzugefügt werden.

Quellen und weiterführende Informationen


Sonntag, 30. Oktober 2011

Google: Panda-Alarm

panda-vgwort

Googles Problembär macht Webseitenbetreibern und Bloggern das Leben schwer.

Schon das ganze Jahr über herrschte Panda-Alarm: In regelmäßigen Abständen wurden Webseitenbetreiber und Blogger von Meldungen aufgeschreckt, dass Google demnächst wieder eine Veränderung des Suchalgorithmus (ein so genanntes "Panda Update") ausspiele und damit sicher geglaubte Positionen in den Suchmaschinenergebnissen gefährdet seien. Und immer wieder wurden die SEO-Tipps von Google und den vielen SEO-Blogs wiedergekäut, mit denen man sich gegen eine schlechtere Positionierung wappnen könne.

Jeder, der nicht gerade eine Content-Farm (Website mit dünnem/minderwertigem Content und viel Werbung) betreibt, begrüßt es natürlich, wenn Google den Suchmaschinen-Algorithmus der Google-Suche optimieren will - auch ich: Immerhin kommen über 90 Prozent der Seitenbesucher, die über eine Suchmaschine zu meinen Seiten finden, über die Google-Suche. Doch die bisherigen Panda Updates haben gezeigt, dass nicht jede Veränderung der Suchmaschinenergebnislisten (SERPs, Search Engine Results Pages, genannt) diese tatsächlich verbessert haben. Oft genug trifft das Fallbeil nicht Content-Farmen, sondern "Unschuldige".

Panda Update: Ach, schon wieder?

Bisher sind diese Google Panda Updates an mir bzw. meinen tinto-Projekten spurlos vorübergegangen. Manchmal habe ich zwar einen leichten Rückgang bemerkt, aber der hat sich immer wieder verwachsen - die Ursache kann also auch woanders gelegen haben. Doch seit dem 14. Oktober 2011 ist mir das Lachen vergangen: Von einem Tag auf den anderen ist die Zahl meiner Besucher über Suchmaschinen um 40 Prozent zurückgegangen und meine sowieso geringen Adsense-Einnahmen sind um ca. 60 Prozent gesunken. Warum? Weiß ich nicht. Eine Recherche ergab, dass Matt Cutts am 14. Oktober 2011 in einem Tweet bestätigte, dass es am Vorabend ein kleineres Panda Update gegeben hatte.

Der zähe Kampf um Googles Gunst

Meine ältesten Webseiten sind seit 13 Jahren im Netz. In ihren Anfangszeiten gab es zu meinen Themen noch kaum andere deutschsprachige Informationsseiten, weswegen sie überall verlinkt wurden. Ich engagierte mich außerdem in Foren, um meine Webseiten bekannt zu machen, und ich schrieb Bücher zu den jeweiligen Themen, die auch bekannt wurden. (Manchmal waren auch erst die Bücher da und danach baute ich die Webseiten.)

Dann konnte ich die Webseiten aus beruflichen Gründen ein paar Jahre lang nur gelegentlich pflegen, aber nicht weiter ausbauen. Dass damals die Besucherzahlen abnahmen, verstand ich - das hatte ich ja schließlich nicht anders "verdient".

Doch seit ca. 18 Monaten arbeite ich hart an der Aktualisierung und Erweiterung der verschiedenen Themenbereiche (Garten, Geld & Börse etc.) meiner Website. Zuerst überarbeitete ich vor allem den Content (Texte und Bilder) - es heißt doch immer seitens Google: "Content ist King". Nach jeder Bearbeitung erwartete ich den Durchbruch: einen der vorderen Plätze in den SERPs und als Folge davon ein paar Werbeeinnahmen. Doch nichts passierte bzw. die Verbesserungen waren im Verhältnis zum Aufwand minimal. (Einfacher verlief die gezielte Platzierung von Blog-Postings, was sich allerdings monetär kaum auswirkte.)

Als nächstes begann ich, mich mit der Suchmaschinenoptimierung (SEO) auseinanderzusetzen - schraubte, feilte, feilte noch mal ... wartete wieder auf den Durchbruch. Doch wieder passierte nichts. Erst nach Wochen zeigten sich bei einigen Schlüsselwörtern/Suchwort-Kombinationen leichte Verbesserungen, nach Monaten hatte ich einige neue gute Plätze in den SERPs ergattert.

Nach 18 Monaten kam ich zu dem Schluss, dass ich im Prinzip wohl auf einem guten Weg sei - er dauere nur wahrscheinlich länger, als ich gedacht hatte. Aber ich kann zäh sein, wenn ich das Licht am Ende des Tunnels sehe.

Dann kam der 14. Oktober und ich wurde auf den Stand von vor 12 Monaten zurückgeworfen. Einfach so.

Seit dem 14. Oktober 2010 zerbreche ich mir den Kopf, was ich falsch gemacht habe:

  • Zu wenig Content?
    Zu wenig Inhalt kann nicht der Grund sein, denn ich habe teilweise sehr lange Texte und meistens Bilder zu den Artikeln. 
  • Probleme mit der Content-Qualität?
    Auch wenn vielleicht noch nicht jede Seite perfekt ist, nehme ich doch in Anspruch, dass meine Webseiten qualitativ hochwertigen Content, verständlich aufbereitet und von guter sprachlicher Qualität und Rechtschreibung bieten. 
  • Zu viel Werbung?
    Auch das kann nicht der Grund für die Abstrafung gewesen sein, denn immer wieder fordert mich Adsense dazu auf, doch mehr Adsense-Werbung auf meine Seiten zu setzen. 
  • Canonical Tags falsch gesetzt?
    Tatsächlich hatte ich kurz vor dem Einbruch an meinen Canonical Tags geschraubt - wieder in der Hoffnung auf einen Durchbruch. Die habe ich in der Zwischenzeit wieder zurückgesetzt, doch die Lage hat sich nicht verbessert. 
 Manchmal werde ich bei der Suche nach dem Grund für die Abstrafung durch Google schon richtig paranoid und ich frage mich, ob Google mich schlechter positioniert, weil ich auch anderen Werbepartnern Werbeplätze gebe. Oder vielleicht, weil ich den Google+-Button noch nicht überall eingebaut habe? Oder weil ich auch mal kritisch über das Google Monopol schreibe? Oder habe ich das bösen Mitbewerbern zu verdanken - haben die vielleicht auf von Google negativ bewerteten Seiten massenhaft verlinkt, damit ich abgewertet werde? Tatsächlich fand ich kürzlich bei einem Backlinkcheck tinto-Seiten auf mehreren polnischen und anderen osteuropäischen Seiten, die ich nicht kenne, verlinkt.

Google - was nun?

Bei aller Bewunderung für die Kreativität der Entwickler und für die unternehmerische Leistung von Google, frage ich mich zunehmend, ob es richtig ist, dass ein einzelnes Unternehmen ein Quasi-Monopol auf die Suche im Internet besitzen darf: Wie ein Torwächter kann Google die Sichtbarkeit jeder Webseite und jedes Blogs weltweit im Internet kontrollieren - und für die Sichtbarmachung entweder eine Art Wegezoll kassieren (Adwords) oder Regeln aufstellen und einfordern, die nicht überprüfbar sind (keine Transparenz, kein Schutz vor Böswilligkeit) bzw. deren Einhaltung man nicht einklagen kann.

Mein Fazit ist, dass ich - neben ein paar kleineren SEO-Anpassungen - vor allem versuchen werde, die Abhängigkeit von Google zu verringern: mehr Facebook, mehr Twitter, mehr XING, mehr Traffic über Verlinkungen, mehr Zusammenarbeit und Vernetzung mit anderen Webseiten und Blogs, mehr Einträge in Portalen etc.

Im März 2001 wurde das Telekom-Monopol aufgebrochen - ist so etwas nicht auch auf Google und seine Vormachtstellung anzuwenden oder schieße ich damit über das Ziel hinaus? Ich freue mich über Ihre Meinung in den Kommentaren.

Dienstag, 28. Juni 2011

Google Pagerank Update - die SEO News des Tages

Google Pagerank UpdateGoogle hat gestern die Pageranks (PR) verändert. Meine neuen Webseiten und Blogs sind nun endlich erfasst (zumindest alles, was bis etwa Anfang Mai 2011 geschaffen wurde). Mein Twitter-Account-PR ist jetzt bei 9*! Aber: Bei meinen Webseiten sind einige Einstiegsseiten plötzlich niedriger als einige der Unterseiten. Was will mir Google damit sagen?

Pagerank - was ist das?

Der Pagerank ist eine Maßzahl von Google, die etwas über die Qualität und Stärke der eingehenden Verlinkung (Linkpopularität) einer Website aussagen soll - und damit über die Wahrscheinlichkeit, dass eine Seite im Internet gefunden wird. Errechnet wird der Pagerank mit einem von Google patentierten PR-Algorithmus, dessen aktuelle Formel niemand im Detail kennt außer Google.

Der Pagerank sagt zwar noch nichts darüber aus, auf welchem Platz man in den Ergebnissen (Suchtreffer-Ranking) der Suchmaschinenabfragen landet, aber der PR wird von Webseitenbetreibern und Bloggern mit Argusaugen beobachtet (u. a. weil viele, die Werbeplatz buchen auf den PR schauen)!

Den Pagerank seiner Webseiten oder Blogeinträge messen kann man mit verschiedenen SEO-Tools, beispielsweise mit der Google Toolbar oder der SEObar von SeoQuake, einem Plugin für den Mozilla Firefox Browser. Neue Seiten haben oft noch keinen Pagerank (n/a) oder Pagerank 0. Je stärker der PR Richtung 10 tendiert, desto besser. Normal ist der Bereich um PR 3-4.

Pagerank und Kommunikation

Warum ich in einem Text- und Kommuniktionsblog über den Pagerank schreibe, hat einen ganz einfachen Grund: Alles was, sich auf das Ranking der Suchergebnisse auswirken kann, hat einen Einfluss auf die Kommunikation - wer nicht gefunden wird, der kann nicht kommunizieren.

Pagerank und SEO (Suchmaschinenoptimierung)

Doch auch wenn der veränderte Pagerank, soweit ich bis heute sehen konnte, meine Plätze in den Suchergebnissen nicht nachteilig verändert hat - im Gegenteil, da habe ich in letzter Zeit nach einigen Suchmaschinenoptimierungsmaßnahmen äußerst positive Entwicklungen bemerkt - frage ich mich nun natürlich, ob die PR-Abstufung einzelner Einstiegseiten darauf zurückzuführen ist, dass gute Verlinkungen weggefallen sind, verlinkende Seiten auf böse (nach Google Maßstab) gestuft wurden oder dass man inzwischen eben nicht mehr die Einstiegsseite verlinkt, sondern direkt die Unterseite mit den wichtigen Informationen. Da meine Seiten ein weites Themenfeld umfassen, würde das letztere Sinn machen.

Der Pagerank ist letztendlich nur ein Faktor von vielen, der beim Ranking der Suchmaschinentreffer herangezogen wird - angeblich kann der PR bei Einwort-Suchen aber direkte Auswirkungen auf das Ranking haben.

Pagerank-Änderungen - Auswirkungen

Wie oben bereits ausgeführt, habe ich bisher bei meinen Webseiten und Blogs hinsichtlich der Rankings in den Suchtreffern keine negativen, sondern nur positive Entwicklungen feststellen können, egal ob nun der sichtbare PR positiver oder negativer von Google gesetzt wurde. Aber natürlich werde ich das weiter beobachten und gegebenenfalls hier berichten.

* Den hohen PR 9 für den Twitter-Account haben wohl alle - aber der ist als nofollow-Link markiert und vererbt sich daher nicht - wie man es sich wünschen würde - bei Verlinkungen ;-))