Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Googlebot/2.1 (+http://www.google.com/bot.html)

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
bugscout
PostRank 9
PostRank 9
Beiträge: 2602
Registriert: 23.06.2003, 12:24

Beitrag von bugscout » 01.04.2006, 15:14

moin moin,
HTTP/1.1 GoogleBot/2.1
HTTP/1.1 gehört nicht zur kennung des bots
kann man immer noch nach googlebot in den logs schauen
du kannst die logfiles im editor öffnen und dann nach "googlebot" suchen.

im moment sieht es so aus als wenn sie beim Googlebot/2.1 nur den namen geändert haben.
das spiderverhalten vom Mozilla/5.0 (compatible; Googlebot/2.1 ist bei mir wie beim alten

grüsse

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

tingeltangeltill
PostRank 4
PostRank 4
Beiträge: 100
Registriert: 06.03.2006, 14:01
Wohnort: Tübingen

Beitrag von tingeltangeltill » 03.04.2006, 12:08

mein frage ist scheinbar falsch angekommen:

ich habe gefragt nach was ich suche muss, da unter dem suchbegriff "googlebot" nichts gefunden wird (er war mit sicherheit da).

;-)

twiggie
PostRank 8
PostRank 8
Beiträge: 887
Registriert: 30.05.2005, 09:23

Beitrag von twiggie » 03.04.2006, 12:44

Versuchs mal mit Wildcard:
googlebot*
Twigg

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

tingeltangeltill
PostRank 4
PostRank 4
Beiträge: 100
Registriert: 06.03.2006, 14:01
Wohnort: Tübingen

Beitrag von tingeltangeltill » 03.04.2006, 14:37

auch nichts, dann muss ich mal nach einem anderen analyzer schauen

bugscout
PostRank 9
PostRank 9
Beiträge: 2602
Registriert: 23.06.2003, 12:24

Beitrag von bugscout » 03.04.2006, 16:01

moin moin,

wenn du die logfiles mit einem editor öffnest und beim suchen den begriff googlebot nicht findest, gibt es drei möglichkeiten:

1) er war nicht da
2) es sind nicht die logfiles
3) der googlebot wird rausgefiltert
muss ich mal nach einem anderen analyzer schauen
was sollte ein analyzer finden, was ein editor nicht findet.

grüsse

tingeltangeltill
PostRank 4
PostRank 4
Beiträge: 100
Registriert: 06.03.2006, 14:01
Wohnort: Tübingen

Beitrag von tingeltangeltill » 03.04.2006, 17:11

einen analyzer nehmen, der mir einfach anzeigt, welcher robot da war.

neue seiten wurden indexiert --> googlebot war da
bei älteren logfiles wird googlebot gefunden --> wird nicht gefiltert
es sind die logfiles, das kann mein iq von <100 noch erkennen

ich kann dir die dinger ja mal zuschicken und du kannst dich selber versuchen
;-)

/till

bugscout
PostRank 9
PostRank 9
Beiträge: 2602
Registriert: 23.06.2003, 12:24

Beitrag von bugscout » 04.04.2006, 11:30

moin moin,

wenn es die logfiles sind und die suchmaschinen nicht gefiltert werden und der editor nichts findet, war der bot in dem zeitraum auch nicht da.

der analyzer macht es einfacher, er findet aber nicht mehr.

emailadresse für die files kommt per pn.

grüsse

tingeltangeltill
PostRank 4
PostRank 4
Beiträge: 100
Registriert: 06.03.2006, 14:01
Wohnort: Tübingen

Beitrag von tingeltangeltill » 05.04.2006, 15:28

also, die robotbesuche werden gefilter, manchmal schaffen sie es doch geloggt zu werden...

ts77
PostRank 4
PostRank 4
Beiträge: 146
Registriert: 03.02.2005, 13:58

Beitrag von ts77 » 06.04.2006, 19:53

hat hier schon mal jemand ein Muster nachvollziehen können warum nicht mehr so intensiv gespidert wird?
Ich hatte vorher am Tag so um die 20-30K Googlebot-Besuche und jetzt sinds auf einmal nur noch 100-200.

oldInternetUser
PostRank 9
PostRank 9
Beiträge: 1250
Registriert: 19.03.2005, 12:52

Beitrag von oldInternetUser » 06.04.2006, 20:35

warum nicht mehr so intensiv gespidert wird?
Schön wäre es. Der alte war bei mir an demselben Tag zum letzten Mal, wie es @bugscout ganz am Anfang schreibt, seither fehlt der alte komplett. Dieser hatte sich jedoch - abgesehen von DeepCrawl-Tagen - jede Seite höchstens einmal pro Tag geholt, was auch völlig ok war (statisches Html, meist 304).

Der neue holt sich derzeit etwa ein Drittel der Seiten bis zu 6 mal, obwohl ich eigentlich nicht glaube, daß ich plötzlich einen PR8 oder 9 habe.

Allerdings habe ich einen Link von einer PR-starken Domain, die dortige Linkseite war immer merkwürdig verdoppelt, also Duplicated Content. Google hat diese zwei Seiten bis jetzt getrennt ausgegeben (und vielleicht abgewertet), nun wird die zweite Seite selbst bei der direkten Suche per Url auf die erste Seite normalisiert. Das könnte natürlich den Link verstärkt haben - die Dateien vom Ziel-Unterverzeichnis werden im Augenblick so etwa zwei bis sechs Mal pro Tag geholt.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag