Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

robots.txt & disallow bei website-relaunch

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
Dippes
PostRank 1
PostRank 1
Beiträge: 3
Registriert: 07.05.2013, 09:08
Wohnort: Köln

Beitrag von Dippes » 08.05.2013, 09:41

Hallo zusammen,

habe eine größere Seite relauncht mit etwa 7000 Seiten.

Die Verzeichnisstruktur hat sich geändert.
Damit die externen Links noch abrufbar sind, haben wir alle alten Seiten als Umleitungen auf die entsprechenden neuen Seiten angelegt.

Beispiel alte Seiten:
www.beispieldomain.de/en/XY_1234.html
www.beispieldomain.de/en/XY_1235.html
www.beispieldomain.de/en/XY_1236.html

Damit diese nicht mehr im Index auftauchen haben wir sie in der Robots geblockt durch
Disallow: /en/XY_

FRAGE:
Die Webmastertools-Daten zu indexierten, nicht-indexierten und geblockten Seiten könnten folgenden Schluss zulassen:
Durch das Disallow wurden auch die neuen Seiten hinter den Umleitungen geblockt.
Das kann aber eigentlich nicht sein, oder!?
Da alle neuen Seiten auch in der sitemap.xml submitted wurden...

Kann mir das irgendjemand mit Sicherheit bestätigen? Danke schon mal!
Ich verzweifel ein wenig...
:crazyeyes: