Seite 1 von 1

robots.txt oder htaccess bei 404 Fehler

Verfasst: 26.05.2008, 20:29
von Torsten.E
Da immer wieder Seiten rausfliegen, meldet Google diese mit dem Fehler 404.

Sollen jetzt diese URL's mit
DISALLOW in der robots.txt eingetragen werden
oder mit einer Rewrite-Rule in der htaccess

oder gar nix machen und warten bis es sich selber erledigt hat ?

Ich will halt dieser Fehler so schnell als möglich aus der Welt schaffen.

Torsten.E

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Verfasst: 27.05.2008, 11:49
von dadawowo
In Anbetracht dessen das auf den Seiten auch Links liegen könnten, solltest
Du diese per Rewrite auf die Startseite umleiten.

Aber warum fliegen bei Dir Seiten raus? Auch der Umfang einer Seite ist ein
Rankingfaktor.

Warum fliegen Seiten raus

Verfasst: 27.05.2008, 12:01
von Torsten.E
Weil sich z.B. die Struktur ändert.

Wir haben z.B. auch aktuelle Bauvorhaben, welche nur während der Bauphase interessant sind. Diese werden dann gelöscht.

In Anbetracht, dass der Umfang eine Rolle spielt, sollte vielleicht über ein Archiv nachgedacht werden ;-)