Der erste Teil dieser Reihe (Qualitätsfaktor Landingpage) hat sich mit den Hintergründen und der Entwicklung des Qualitätsfaktor Landingpage beschäftigt. In diesem Teil geht es um die praktische Umsetzung und die Anwendung dieses Wissens.
Bei der Optimierung der Landingpage muss man unterscheiden zwischen Seiten die Google immer abwertet und solche die nur unter bestimmten Umständen abgewertet werden.
Immer abgewertet werden:
- Websites zur Datenerfassung, auf denen kostenlose Artikel zur Sammlung von Informationen angeboten werden
- Arbitrage-Websites, die zur Anzeigenschaltung dienen
- Malware-Websites, über die wissentlich oder unwissentlich Software auf dem Computer des jeweiligen Besuchers installiert wird
Auch wenn diese Seiten möglicherweise guten Content beinhalten kann dies einen Abwertung nicht verhindern. Eine Optimierung auf der Seite selbst ist damit sinnlos, einziger Weg die Abwertung zu verhindern oder zumindest hinauszuzögern ist den Adwords-Bot auszuschließen. Wenn die Seite nicht inspiziert wird, kann auch nicht festegestellt werden, dass sie abzuwerten ist.
Dazu kann man in der robots.txt folgenden Eintrag hinterlegen:
User-agent: AdsBot-Google
Disallow: /oder
User-agent: AdsBot-Google
Disallow: /verzeichnis/
DerAdwordsbot muss persönlich angesprochen werden, globale Ausschlüsse (User-agent: *) werden ignoriert.
Diese Taktik verhindert eine massive Abwertung, Google wertet den Ausschluss des Bots aber als Negativ-Kriterium und setzt den QF etwas niedriger an als auf normalen Seiten. Klickpreise im Minumum von 1 Euro sind aber immer noch besser als Preise um die 8 Euro pro Klick.
Manuelle Kontrollen verhindert diese Variante natürlich nicht.
Seitenoptimierung bei kritischen Seiten
Bei Seiten die bestimmte Merkmale erfüllen kann es schnell zu einer Abwertung kommen, dies muss aber nicht geschehen, wenn man bestimmte Regeln beachtet. Bei diesen Seiten lohnt sich auch eine Optimierung auf einer Seite, der Ausschluss des Bots ist hier nicht nötig.
Solche Seiten sind:
- E-Books mit häufiger Anzeigenschaltung
- Websites zur schnellen Gewinnsteigerung
- Websites mit Angebotsvergleichen
- Reisebüros
- Zweigunternehmen
Diese Seiten werden abgewertet, wenn sie nicht gewisse Standards erfüllen. Da sie von Scripten gecheckt werden sind diese Standards aber recht einfach zu bekommen.
- Eigener Content Die Seiten sollten neben den Inhalten (Preisvergleichen) zusätzlichen uniquen Text enthalten . Um die 1000 Zeichen eigener Content verhindern in den meisten Fällen , dass ein Bot die Seite einem der o.g. Fälle zuordnet
- Relevanter Content Die Suchbegriffe sollten auf der Seite vorkommen und die Seite sollte insgesamt thematisch eng mit dem Suchbegriff verbunden sein
- Wenige Affiliate Links Links zu Affiliate Programmen sollten wenn möglich vermieden werden. Man kann diese einbeinden aber dann sollten sie maskiert werden.
- Navigation beibehalten die normale Seitennavigation zu anderen internen Seiten sollte beibehalten werden um dem Bot zu zeigen, das es sich um eine normale Seite handelt
Was tun falls die Seite abgewertet wurde?
Falls die Landingpage bereits abgewertet wurde und sie nicht zu einer Seite gehört die ohnehin immer abgewertet wird, kann eine manuelle Nachprüfung in die Wege geleitet werden. Dazu gibt es bisher leider noch kein Formular, es reicht dazu aber wenn man sich mit dem Support in Kontakt setzt.
Aus eigener Erfahrung werden fast alle Seite die eine manuelle Nachprüfung hatten wieder freigeschaltet. Es hilft natürlich wenn man vor der Nachprüfung die genannten Hinweise einhält.