Seite 1 von 1

Zusätzliches Ergebnis, Mozilla Googlebot, und Backlinks

Verfasst: 05.07.2005, 22:38
von SexVerzeichnis
Erstmal Hallo an alle :)

Ich würde euch gerne ein paar Beobachtungen mitteilen und hören was Ihr dazu sagt:

Domain (2-3k unterseiten) ist seit ca. 2 Jahren im Index, also zu Zeiten online gegangen als man noch mit hunderten von Seiten wo sich quasi nur das Keyword geändert hat und ein paar externen Links aus GBs Top-Positionen abstauben konnte ;)

letztes Jahr im September Slow Death und faktisch raus, aber nie ganz gekickt worden.

Vor 2,3 Monaten tauchen plötzlich wieder etliche Seiten bei Google in den Serps auf und 'waren' auch recht gut gelistet allerdings nur als 'Zusätzliches Ergebnis' und mit dem Cache von vor 2 jahren

naja und ich denk mir ... mhhh mal bisschen dran basteln und dann bekomm ich das Ding wieder rein ....

Naja also hab ich jeder Seite mal 'Unique Content' verpasst und und auf die Hauptseiten (eher Sitemaps) wieder ein paar externe Links gesetzt (auch auf die wichtigsten unterseiten)

Kurze Zeit später war Gogolebot in der Mozilla version da und hat ne richtige Orgie veranstaltet, also fast alle Seiten gespidert... nix passiert

Dann War der Normale Googlebot da, der hat allerdings nur ein paar Seiten mitgenommen.

Stand derzeit: Alle Seiten die zumindest einen externen Backlink haben sind aus dem Supplemental Index raus und wieder halbwegs mit dabei auch mit aktuellem Cache.
Alle anderen gammeln im zusätzlichen Index, haben allerdings TOP-positionen bei Suchen nach
"key1 key2" und key1-key2 (key1-key2 kommt in der URL vor, "key1 key2" im body)

Also - Ich vermute - wenn der PR der Hauptseite kleinergleich X (schätzungsweise PR4) ist kommen Unterseiten nur mit externen Links in den richtigen index. Das bestätigt auch eine andere Domain (PR5) deren unterseiten ruck zuck drin sind, ohne externen link.

Weiterhin frage ich mich was der Mozilla Bot soll?!
Bei einer ganz frischen Domain von mir kam der gleich zu anfang und hat auch gleich ein paar Unterseiten mitgenommen (haben alle keine externen Links)
Die Hauptseite wurde aber erst gelistet als der normale Googlebot auch da war (und der war NUR auf der Hauptseite)
Allerdings sind die Unterseiten noch nicht mal in den "zusätzlichen index" gerutscht

Meine Vermutung dazu: Der Mozilla Bot ist sozusagen ein Vorbote vom normalen Bot, er checkt die Eckdaten der Seite - also Backlinks und evt "common spam" techniken und gibt Seiten die er für 'Google-Würdig' empfindet an den normalen Bot Weiter. Der mozilla bot hält sich nicht mit seiten in den cache schreiben oder ranking bewertungen auf, sondern dient einfach nur dazu schnell wichtige Seiten zu finden, die dann vom normalen bot gewertet und in den index gebracht werden.


Was sagt ihr dazu? - Ähnliche Beobachtungen oder ganz andere eventuell??

Grüße,
Ben

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Zusätzliches Ergebnis, Mozilla Googlebot, und Backlinks

Verfasst: 06.07.2005, 08:05
von Thor
Hallo,

meiner Meinung nach ist der Mozbot nur ein "Ausputzer". Der Normalbot nimmt grundsätzlich alle Seiten mit, auch die Robots.txt gesperrten. Der Mozbot "ordnet" die Seiten die gelistet werden, dh er ist für doppelten Content, Spam, entfernte Seiten usw verantwortlich.