Duplicate Content vermeiden

23. Januar 2012 Aus Von admin

Die Suchmaschinenoptimierung (SEO) beschäftigt sich zum allergrößten Teil mit Textinhalten: Es ist hierbei wie bereits beschrieben ausgesprochen wichtig, Duplicate Content zu vermeiden. Dies bezieht sich sowohl auf den internen als auch auf den externen doppelt vorhandenen Inhalt. Bei Duplicate Content handelt es sich um Webseiteninhalt, der gezielt kopiert oder versehentlich mehr als einmal im Web oder sogar auf einer Seite verwendet wurde. So kann ein Text beispielsweise als Unique Content von einem Webseitenbetreiber erstellt oder in Auftrag gegeben werden, der auf mehrere Seiten geschaltet wird – beispielsweise unter unterschiedlichen Webadressen und Domains oder in Blogarchiven, Links zu Produkten bzw. Angeboten und herkömmlichen Seiten.

Wie lässt sich eine solche Entstehung von Duplicate Content vermeiden?

Dazu steht insbesondere die Webseite von Copyscape zur Verfügung. Gegen einen geringen Betrag kann man dort einen bereits veröffentlichten oder auch vor der Veröffentlichung stehenden Text einfügen und das Programm das gesamte Internet nach möglichen Duplikaten des Textes durchsuchen lassen. Ebenso lässt sich auch eine URL auf doppeltes Vorkommen überprüfen. Um Duplicate Content zu vermeiden, empfiehlt es sich des Weiteren, professionelle Texter mit dem Verfassen des Webseiteninhalts zu beauftragen. Weitere Webseiten und Tools wie Copyright Spot und DuplicateContent offerieren einen solchen Service kostenfrei.

Es ist zudem die Nutzung von Javascript zum Vertuschen von Listen/Sortierungen, Archiven und parametrisierten URLs möglich, sodass interner Duplicate Content von den Suchmaschinen nicht erfasst wird. Die Programmierung mit Javascript verschlüsselt die Daten bzw. Links (sog. „scrambling“), sodass der Crawler der Suchmaschine sie nicht untersuchen kann. Ajax ist dabei ebenso hilfreich. Der Nachteil dabei ist, dass Google Inhalt mit Javascript-Programmierung bei der Indexierung nicht berücksichtigen kann und dies zu einem niedrigeren PageRank wegen nicht erkannten Inhalts führen kann. Eine Sperrung der Links durch „noindex“ und eine Aufteilung in Teaser und restlichen Volltext bei WordPress führt ebenfalls dazu, Duplicate Content zu vermeiden. Generell sollte man zudem darauf achten, bei URLs die Anzahl der Parameter gering zu halten, da der Bot sonst von verschiedenen Webseiten und somit Duplicate Content ausgeht.