Seite 1 von 1

etliche Crawling Fehler - wie verhindern

Verfasst: 23.11.2009, 09:11
von Rockor
Moin, ich nutze so ein Preisvergleich auf meiner Seite in einem Unterordner also /presivergleich. Habe in den Webmastertools festgestellt das dieser Preisvergleich mir inzwischen schon ca. 6000 "Nicht gefunden" Seiten produziert hat. Ist das an sich sehr schlecht für Seo auf Dauer?

Meint Ihr ich soll das ganze per htacces aussperren und dann die Löscung des ganzen Ordners aus dem Index beantragen? Besucher kommen eh nur über meinen eigenen Content usw. Was müsste in die hataccess rein wenn Ihzr meint das wäre eine gute Lösung

Verfasst:
von

Re: etliche Crawling Fehler - wie verhindern

Verfasst: 23.11.2009, 09:31
von Mork vom Ork
Rockor hat geschrieben:Habe in den Webmastertools festgestellt das dieser Preisvergleich mir inzwischen schon ca. 6000 "Nicht gefunden"-Seiten produziert hat.
Guckst du auch mal ins Fehlerprotokoll deines Webservers?
Meint Ihr ich soll das ganze per htacces aussperren
Für Suchmaschinenbots ist /robots.txt zuständig.

Re: etliche Crawling Fehler - wie verhindern

Verfasst: 23.11.2009, 12:17
von 800XE
Rockor hat geschrieben:Moin, ich nutze so ein Preisvergleich auf meiner Seite in einem Unterordner also /presivergleich. Habe in den Webmastertools festgestellt das dieser Preisvergleich mir inzwischen schon ca. 6000 "Nicht gefunden" Seiten produziert hat.


Meint Ihr ich soll das ganze per htacces aussperren
Artikel verschwinden ... das ist eben so, dann ist dort 404

httaccess?
meinten sie robots.txt
kukstu (als abkuckVorlage)
abakus-internet-marketing.de/robots.txt

Verfasst:
von

Re: etliche Crawling Fehler - wie verhindern

Verfasst: 23.11.2009, 13:56
von Nullpointer
800XE hat geschrieben:...
Artikel verschwinden ... das ist eben so, dann ist dort 404

....
aber besser, wenn die alten produktseiten dann per 301er woanders hinleiten. entweder auf die startseite oder halt eine seite, die den user darauf hinweist, dass es das produkt nicht mehr gibt.

Verfasst: 23.11.2009, 14:31
von Rockor
moin, ja sorry ich meinte die robots.txt an sich... also meint ihr ich soll nicht den ganzen ordner /presivergleich in den webmatools zur Löschung beantragen?

Verfasst: 23.11.2009, 18:51
von Mork vom Ork
Rockor hat geschrieben:also meint ihr ich soll nicht den ganzen ordner /presivergleich in den webmatools zur Löschung beantragen?
Um die Seiten aus dem Index zu kriegen reicht ein entsprechendes Disallow /preisvergleich/ in der robots.txt vollkommen aus; der WMT-Kram wird IMHO eh generell überbewertet.

Notwendig ist das Ausschließen nicht, das ist eher kosmetischer Natur. Du könntest dir auch überlegen, woher die Fehler kommen (zB Programmfehler oder einfach ausgelaufene Ware) und ob es eine schlauere Lösung gibt, die Fehler zu vermeiden (zB Programmfehler korrigieren oder alte Ware zu Informationszwecken beibehalten). Und ohne dein Angebot zu kennen: Brauchst du den Preisvergleich überhaupt bzw. wie ist das Verhältnis von Arbeit und Nutzen? Vielleicht kannst du den Ballast gänzlich über Bord kippen.

Verfasst: 26.11.2009, 15:16
von Rockor
aso dachte das sowas vielleicht mit in das Ranking einfliessen könnte wenn da soviele 404 sind.