Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Wie crawlt Goggle in den Log-Files

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
Klaus
PostRank 7
PostRank 7
Beiträge: 595
Registriert: 05.08.2003, 08:21
Wohnort: Darmstadt

Beitrag von Klaus » 06.09.2003, 13:12

Hallo.
Ich habe vor 6 Wochen eine neue Domain bei Goggle angmeldet.
Gestern war Goggle da.
64.68.88.2 - - [05/Sep/2003:22:01:58 +0200] "GET /robots.txt HTTP/1.0" 200 243 "-" "Googlebot/2.1 (+https://www.googlebot.com/bot.html)"
So weit so gut.

Wie kann ich denn nun erkennen, welche Seiten indexiert wurden?

In den Log-Files erkenne ich das nicht.

Oder dauert das nun noch bis zu einem zweiten Besuch?

Danke und Gruß
Klaus

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Webby
Administrator
Administrator
Beiträge: 5420
Registriert: 17.10.2001, 01:00

Beitrag von Webby » 06.09.2003, 13:38

Es gibt eine script heist Googlestats https://www.googlestats.com/english/
oder Spydertrax.
https://www.darrinward.com/spydertrax.zip

Beispiel:
https://www.abakus-internet-marketing.d ... bot=Google

oder

https://www.abakus-internet-marketing.de/googlestats/

Ich hab es nur auf meine index seite aber mann kann alle seiten die SSI hinfügen bzw. php code.
ABAKUS Internet Marketing
Professionelle Suchmaschinenoptimierung und Suchmaschinenmarketing

viggen
PostRank 10
PostRank 10
Beiträge: 6249
Registriert: 12.05.2003, 14:44

Beitrag von viggen » 06.09.2003, 13:39

yup, bis jetzt wurde nur die robots.txt seite besucht, jede Seite mus von Google einzeln besucht werden. kann heute sein morgen oder in einen Monat, hängt von vielen verschiedenen Faktoren hab.

mfg
viggen