Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Google indexiert wild leere Seiten

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
NEO_SEO
PostRank 4
PostRank 4
Beiträge: 164
Registriert: 19.11.2009, 14:21

Beitrag von NEO_SEO » 31.07.2012, 08:36

Moin,

bräuchte mal einen Rat. Ich betreue einen Mobilfunk Onlineshop der eine ältere Eigenentwicklung oder eine Modifikation eines alten Systems ist.

Ich hab diverse Änderungen vorgenommen und META title, description, canonical Links und natürlich kein DC und so wenig wie möglich internen DC.

Die Entwicklung schien ganz gut, die Besucherzahlen stiegen und dann wieder runter auf 20 Besucher pro Tag und zu dem Hauptkey verbannt auf Platz hinter 100 irgendwas.

In dem Mobilfunkshop sind viele Produktvarianten verfügbar. Produkt + Tarif. Diese Varianten sind mit einem canonical Link zum Hauptprodukt versehen um zu viel internen DC zu vermeiden. Zusätzlich ist das crawlen dieser Varianten über die robots.txt eigentlich Google nicht gestattet.

Alarmglocken an und den Index angeschaut. Das Problem ist, dass Google viele dieser Seiten indexiert. Was noch schlimmer ist das nahezu alle davon nach Änderung der Tarifstruktur nicht mehr aktuell sind und in dieser Kombination nicht mehr zur Verfügung stehen. Da das Shopsystem nicht in der Lage ist 404er auszugeben zeigt es nur eine leere Seite mit Navigation und Sidebar an :bad-words:

Also indexiert Google gerade viele "leere" Seiten obwohl es über robots.txt und canonical Links eigentlich unterbunden werden sollte.

Die störenden Seiten wollte ich über die Webmastertools entfernen lassen. Habe mehrmals einen Antrag gestellt und manche Seiten sind raus und andere wieder nicht.

Google indexiert aber fleisig weiter leere Seiten :evil:

Der Vermieter vom Shopsystem meint er kann das nicht so schnell ändern, dass nicht erreichbare Produkte eine 404er bekommen, erkönnte eine interne Weiterleitung auf die Startseite einrichten. Ist das sinnvoll?

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

om-labs
PostRank 6
PostRank 6
Beiträge: 422
Registriert: 14.12.2011, 12:58
Wohnort: Hannover

Beitrag von om-labs » 31.07.2012, 09:49

wenn die weiterleitung per 301 Redirect ist, dann ist es besser.

Nur als Hinweis:
Canonical und Disallow (robots.txt) sind nur Hinweise an den Crawler.
Wenn ich ein paar externe Links auf eine Seite mit Canonical setze, die auch noch per Disallow gesperrt ist, dann kommt die Seite trotzdem in den Index, weil die Seite ja wichtig ist und sie externe Links hat.

Wirklich sperren kannst du nur per "Noindex" im HTML oder Noindex in der Robots.txt funktioniert auch bei den Google Bots.

NEO_SEO
PostRank 4
PostRank 4
Beiträge: 164
Registriert: 19.11.2009, 14:21

Beitrag von NEO_SEO » 31.07.2012, 10:47

Also externe Verlinkung die dazu führt kann man hier nahezu ausschließen, da der Sop noch sehr jung ist. Liegt wohl eher an der internen Verlinkung, da diese über die angezeigten Produkte immer auf Produkt Tarifkombinationen zeigt.

Hab ich richtig verstanden: die bessere Lösung ist es die Seiten unter denen kein Inhalt ausgegeben wird per 301er auf die Startseite weiterzuleiten?