Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Welche Verzeichnisse / Seiten per robots.txt sperren?

In diesem Forum geht es um Social Media Maßnahmen & Content-Marketing Strategien zur Steigerung der Reichweite und Offpage-Signale durch gezieltes Bewerben und Präsentieren spannender Inhalte nah der Zielgruppe.
Neues Thema Antworten
RoboTom
PostRank 2
PostRank 2
Beiträge: 47
Registriert: 24.01.2010, 12:07
Wohnort: Bonn

Beitrag von RoboTom » 03.02.2010, 10:48

Hallo zusammen!

Ich überlege mir gerade, ob ich bestimmte Verzeichnisse und Seiten meines Webkatalogs vom Crawlen sperren soll. Ganz genau geht es um solche Seiten wie z.B. "Kontakt aufnehmen" und "Link empfehlen", die neben einem Kontaktformular auch eine kurze Beschreibung, interne und externe Links enthalten. Momentan werden diese Seiten indexiert und stehen oft oberhalb der Detail-Seiten, die logischerweise wichtiger sind und auch viel mehr Content enthalten. Außerdem haben die oben erwähnten Seiten alle dieselben Metatags, was auch nicht gut ist. Dafür wird jeder Eintrag im Verzeichnis gleich mit drei-vier Seiten im Google indexiert. Ob das jetzt so ein großer Vorteil ist? Mehrmals im Forum habe ich gelesen, dass Google nach Qualität, und nicht nach Quantität bewertet. Was würdet ihr mir empfehlen?