Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

robots.txt oder htaccess bei 404 Fehler

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
Torsten.E
PostRank 4
PostRank 4
Beiträge: 172
Registriert: 19.05.2008, 16:27
Wohnort: Maria Thann (Allgäu)

Beitrag von Torsten.E » 26.05.2008, 20:29

Da immer wieder Seiten rausfliegen, meldet Google diese mit dem Fehler 404.

Sollen jetzt diese URL's mit
DISALLOW in der robots.txt eingetragen werden
oder mit einer Rewrite-Rule in der htaccess

oder gar nix machen und warten bis es sich selber erledigt hat ?

Ich will halt dieser Fehler so schnell als möglich aus der Welt schaffen.

Torsten.E

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

dadawowo
PostRank 8
PostRank 8
Beiträge: 784
Registriert: 17.12.2007, 10:55

Beitrag von dadawowo » 27.05.2008, 11:49

In Anbetracht dessen das auf den Seiten auch Links liegen könnten, solltest
Du diese per Rewrite auf die Startseite umleiten.

Aber warum fliegen bei Dir Seiten raus? Auch der Umfang einer Seite ist ein
Rankingfaktor.

Torsten.E
PostRank 4
PostRank 4
Beiträge: 172
Registriert: 19.05.2008, 16:27
Wohnort: Maria Thann (Allgäu)

Beitrag von Torsten.E » 27.05.2008, 12:01

Weil sich z.B. die Struktur ändert.

Wir haben z.B. auch aktuelle Bauvorhaben, welche nur während der Bauphase interessant sind. Diese werden dann gelöscht.

In Anbetracht, dass der Umfang eine Rolle spielt, sollte vielleicht über ein Archiv nachgedacht werden ;-)

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag