Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Falsche URLs werden gecrawled

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
TK1
PostRank 2
PostRank 2
Beiträge: 64
Registriert: 05.03.2008, 16:21

Beitrag von TK1 » 26.01.2012, 15:33

Hallo.

Ich betreibe zwei Seiten auf den gleichen Server. Eigentlich läuft alles gut, jedoch crawled der Crawler von Google anscheinend Kategorien von der einen Seite, aber mit der URL der anderen.

Das sieht in etwa so aus:

www.seite1.de/kategorie1/1.html <-- diese Seite existiert und wird auch für diese TLD normal gecrawled und zugewiesen.

Der Crawler versucht nun die gleichen Inhalte auch auf der zweiten TLD zu finden:

www.seite2.de/kategorie1/1.html <-- diese Seite exisiert natürlich nicht auf dieser TLD, entsprechend zeigt der Crawler im Webmaster-Tool 404-Fehler dafür an (insgesamt mittlerweile einige Tausend).

Es handelt sich um zwei völlig verschiedene Seiten; die Sitemaps die ich eingereicht habe sind korrekt.

Hat einer eine Ahnung woran das liegt? Kann ich das irgendwie ausschließen für den Crawler, oder besser: vollständig beheben?

Gruß,
TK1

EDIT: Vielleicht noch erwähnenswert: Die zweite TLD hatte früher auf TLD1 weitergeleitet, bis sie jetzt quasi selbstständig ist. Ich kann mir vorstellen, dass der Crawler nach Pfaden sucht, die zuvor ja mittels dieser URL erreichbar waren, es aber nicht mehr sind. Kann ich das ausschließen?

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


CyberNibbler
PostRank 5
PostRank 5
Beiträge: 283
Registriert: 19.08.2008, 16:57
Wohnort: Berlin

Beitrag von CyberNibbler » 26.01.2012, 18:00

TK1 hat geschrieben:EDIT: Vielleicht noch erwähnenswert: Die zweite TLD hatte früher auf TLD1 weitergeleitet, bis sie jetzt quasi selbstständig ist. Ich kann mir vorstellen, dass der Crawler nach Pfaden sucht, die zuvor ja mittels dieser URL erreichbar waren, es aber nicht mehr sind. Kann ich das ausschließen?
Das wird wohl der Grund sein. Ich würde die falschen URLs von Seite2 mittels 301 Redirect auf die richtigen URLs der Seite1 für den Googlebot umleiten.

TK1
PostRank 2
PostRank 2
Beiträge: 64
Registriert: 05.03.2008, 16:21

Beitrag von TK1 » 26.01.2012, 20:33

Folgende Probleme gibt es dabei:

1. über 33.000 Seiten
2. der nimmt auch neue Seiten mit auf, welche ich jetzt erst auf Seite 1 ertelle

Das macht das Ganze nicht so einfach. :(

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag