Vor wenigen Tagen meldete Matt Cutts, dass ein neuer Algorithmus zur Spambekämpfung in den Google SERPs online gegangen sei. Alle Leser gingen zu dem Zeitpunkt davon aus, das hierbei Spam durch Content Farmen gemeint gewesen wäre, denn vorher hatte man angekündigt 2011 verstärkt gegen diese Content Farmen vorgehen zu wollen.
Bei Searchengineland gibt es heute eine Korrektur dazu zu lesen. Auf Nachfragen hatte Matt Cutts sich präzisiert und zugegeben, dass die aktuelle Neuerung in den Serps gar nichts mit Content Farmen zu tun hat. Stattdessen war diese Änderung gegen „low quality content scraper sites“ gerichtet gewesen, also Seiten die mit fremden Content versuchen möglichst viel Traffic aus dem Longtailbereich abzugreifen.
Auf die angekündigte Änderung in Sachen Content Farmen wird man also noch warten müssen. Eine Termin für die Umsetzung dieser Änderung gibt es leider noch nicht.
Also mir sind eine ganze Menge Seiten seid den letzten Tagen abgeschmiert, ohne dass an denen was gemacht wurde (zu starker Linkaufbau, etc.. ).
Die waren seid Monaten stabil und von heute auf morgen weg…
Wie immer kann man da kräftig spekulieren, tatsächlich ist das mit dem skriptgenerierten Duplicate Content so eine Sache, die nicht immer im Sinne des Schreibers ist.
Finde ich sehr sinnvoll. Wozu auch sollte Google alles mehrmals indexieren? Für mich ist es die reinste Zeitverschwendung, wenn in den Suchergebnissen teilweise 20 mal der selbe Text drin steht.
Guter unique content gewinnt immer mehr an Bedeutung im Web
und macht die Suchergebnisse übersichtlicher. So soll es sein.