Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Google indexiert wild leere Seiten

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
om-labs
PostRank 6
PostRank 6
Beiträge: 422
Registriert: 14.12.2011, 12:58
Wohnort: Hannover

Beitrag von om-labs » 01.08.2012, 20:39

@dso

Wir haben in Tests und auch in Kundenseiten gesehen, das

1.
Disallow in der Robots.txt egal ist wenn die Seite extern verlinkt ist. Hier wirkt nur Noindex entweder Onpage, in der Robots.txt selbst oder per X-Tag. Manchmal sehen wir auch keinen externen Link auf eine Seite, obwohl per Robots.txt gesperrt, ist die Unterseite dennoch im Index.
Entweder gibt es externe Links die wir nicht sehen, oder wir vermuten die Linkpower über interne Links spielt hier eine Rolle.

Lustig ist auch das z.B. versehentlich vom Kunden seine Startseite of Noindex gesetzt wurde, Seite trotzdem im Index. Bestehende Top10 Positionen verloren, aber auch nur ca. 20 Positionen. Noindex rausgenommen und alles wieder beim Alten.

2. Canonical
Schweres Thema
So wie der Canonical mal angedacht war, funktioniert er nicht immer oder nicht mehr.
z.B. wird der Canonical bei strato e-pages shop genutzt, heisst dann Kurz-URL. Die Seiten mit den Kurz-URL erzielen aber nur marginale Rankings. Wenn man den Kunden überredet einen ordentlichen Shop aufzusetzen, dann ist es kein Problem Rankings zu erzielen.
Bei kleinen Shop Projekten mit wenig BAcklinks, sperren wir zum Anfang immer alle Parameter Seiten um die Linkpower auf die Kategorieseiten zu lenken. Normalerweise würde eine Canonical reichen, tut es aber nicht. Wir setzen immer noch zusätzlich Disallow und Noindex in der Robots.txt.

Vor ein paar Jahren hat der Canonical wunderbar gefunzt, aber Google kocht da seine eigenen Süppchen.