Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Google indiziert nur noch im Schneckentempo :-(

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
Stefan26
PostRank 4
PostRank 4
Beiträge: 104
Registriert: 02.05.2010, 23:41

Beitrag von Stefan26 » 24.05.2010, 20:31

Ich habe bei meinem phpBB3.0.7-Forum (~30.000 bereits indizierte Seiten in Google) mittels Mod die dynamischen URLs in statische mit keywords umgewandelt. Alle bereits indizierten Links in Google werden via 301 redirect auf die neuen URLs umgeleitet.

Soweit so gut. Neben anderen Spiders ist der Google-Bot Dauergast in meinem Forum und hat am 1. Tag der Umstellung auch gleich hunderte "neue" Seiten indiziert, doch inzwischen ist dieser Wert drastisch gesunken. Wenn ich mittels site:meinforum.tld nachschaue und "innerhalb der letzten 24 Stunden" auswähle, komme ich gerade mal auf ein dutzend indizierter Seiten.

Ich bin zwar ein SEO-Newbie, aber vermute einfach mal das ist ein sehr schlechtes Zeichen. Woran könnte das liegen? Der Google-Bot ist quasi permanent anwesend (meist bei der Forenübersicht). Als Gast und registrierter User kann man das Forum mit den neuen URLs problemlos nutzen. Soll ich das URL-rewriting lieber wieder deaktiverien?

Vielen Dank im voraus!

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

mojo
PostRank 2
PostRank 2
Beiträge: 32
Registriert: 17.03.2009, 13:18

Beitrag von mojo » 28.05.2010, 12:26

Soweit ich mich entsinne, bekommst du mit deiner Abfrage die neuindizierten Seiten der letzten 24h und nicht alle gecrawlten Seiten. Um eine bessere Uebersicht ueber das Crawlverhalten von Google Bot zu erhalten wuerde ich dir waermstens empfehlen deine Seite mit Google Webmaster Tools zu verifizieren und dort unter "Crawl Stats" nachzusehen wieviele Seiten wirklich gecrawlt werden. (oder wenn du Technik affiner bist, kannst auch die access logs auf deinem Server analysieren)

Stefan26
PostRank 4
PostRank 4
Beiträge: 104
Registriert: 02.05.2010, 23:41

Beitrag von Stefan26 » 28.05.2010, 20:57

Vielen Dank schon mal für den Tipp! Ich hab mich jetzt registriert und sehe via Webmaster Tools unter "Diagnose" -> "Crawling-Statistiken" die Googlebot-Aktivitäten der letzten 90 Tage. Allerdings kann ich an Hand des Graphen nicht eruieren wieviele Seiten an einem bestimmten Tag gecrawlt wurden. Unter "Crawling-Fehler" werden nur die durch die robots.txt absichtlich blockierten Sites gelistet.

Ich habe leider keinen dedizierten Server, sondern verwende Shared Hosting. Kann man da auch an diese log-files gelangen?