Seite 1 von 1
Doppelten Content vermeiden ( Mod Rewrite )
Verfasst: 11.02.2009, 15:38
von Kali
Hallo,
ich setze Mod Rewrite für sprechende URLs auf meiner Seite ein ( diese ist noch nicht veröffentlicht ). Jetzt habe ich vor kurzem mit einem Auto-Downloader mal alle Seiten meines Angebots runtergeladen und der ist doch auf URLs mit Paramtern gestoßen. Frage: Ist es sinnvoll über die Robots.txt URLs mit Paramtern zu sperren? Wenn ja, indexiert aber Google mein Forum nicht... Wie bekomm ich das am einfachsten hin?
Noch eine kleine Frage: Mein CMS kann aus den Texten PDFs und Druckversionen automatisch erzeugen. Damit generiere ich mir aber auch Doppelten Content. Erkennt Google das inzwischen, dass das keine Contenvermehrung, sondern ein Service ist?
Re: Doppelten Content vermeiden ( Mod Rewrite )
Verfasst: 12.02.2009, 10:05
von chrizz
Kali hat geschrieben:Hallo,
Noch eine kleine Frage: Mein CMS kann aus den Texten PDFs und Druckversionen automatisch erzeugen. Damit generiere ich mir aber auch Doppelten Content. Erkennt Google das inzwischen, dass das keine Contenvermehrung, sondern ein Service ist?
ich würde es nicht drauf ankommen lassen das Google zu überlassen? Warum verlinkst du es nicht mit nofollow und gibt Druckversion und PDF ein noindex? Das wäre das sicherste
Verfasst: 12.02.2009, 10:09
von HaraldHil
Frage: Ist es sinnvoll über die Robots.txt URLs mit Paramtern zu sperren?
Nein.
Verfasst: 12.02.2009, 11:21
von Kali
Warum verlinkst du es nicht mit nofollow und gibt Druckversion und PDF ein noindex?
Kann ich das Noindex per Robots.txt einstellen? Wenn ja, wie?
Frage: Ist es sinnvoll über die Robots.txt URLs mit Paramtern zu sperren?
Nein.
Erklärung?
Verfasst: 12.02.2009, 11:36
von HaraldHil
a) Noindex per Meta Robots.
b) Nein, da sonst diese Seiten nicht indiziert werden.
Verfasst: 12.02.2009, 13:41
von Mamboo
Es sei den, dein pdf generator liegt in einer extra Verzeichnis?
Wenn ja, dann wie folgt:
Disallow: /pdf/ (pdf mit eigene Verzeichnisname ergänzen)
Verfasst: 12.02.2009, 15:10
von HaraldHil
Mamboo hat geschrieben:Es sei den, dein pdf generator liegt in einer extra Verzeichnis?
Wenn ja, dann wie folgt:
Disallow: /pdf/ (pdf mit eigene Verzeichnisname ergänzen)
Naja, bei Vorliegen einer Verlinkung (intern oder extern) wird ohne "nofollow" und ohne "noindex" trotzdem indiziert - oder?
Verfasst: 12.02.2009, 15:22
von Kali
Hmm so einfach mit dem Directory wirds nicht. Gibts nen Robots-Befehl um *.pdf auszuschließen?
Verfasst: 12.02.2009, 15:34
von chrizz
in der htaccess:
<FilesMatch "\.pdf$">
Header set X-Robots-Tag "noindex, follow"
</Files>
Verfasst: 12.02.2009, 15:38
von HaraldHil
wäre
Header set X-Robots-Tag "noindex, no follow"
nicht besser?
Verfasst: 12.02.2009, 16:31
von Mamboo
HaraldHil hat geschrieben:wäre
Header set X-Robots-Tag "noindex, no follow"
nicht besser?
Zur Sicherheit sollte man beides machen.
Verfasst: 13.02.2009, 00:00
von Kali
Ok Danke soweit. Gibt es neben der PDF-Sperrung auch die Option alles auf ".../drucken.html" zu sperren?