Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Wie häufig spidered Google?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
Linkspion
PostRank 1
PostRank 1
Beiträge: 23
Registriert: 05.06.2007, 11:03

Beitrag von Linkspion » 19.09.2007, 15:02

Hallo Forum,

was sind Eure Erfahrungen, wie häufig Websites von Google gespidered werden und wovon ist das eigentlich abhängig? Hintergrund der Frage ist, dass in meinem Webkatalog LinkSPION.de neu hinzugefügte Unterseiten teilweise relativ lange (3-4 Wochen) brauchen, bis sie von Google indiziert werden. Was könnte der Grund dafür sein?

Danke für konstruktive Infos!

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

luzie
PostRank 10
PostRank 10
Beiträge: 4228
Registriert: 12.07.2007, 13:43
Wohnort: Hannover, Linden-Nord

Beitrag von luzie » 19.09.2007, 15:18

hi linkspion,
was sind Eure Erfahrungen, wie häufig Websites von Google gespidered werden und wovon ist das eigentlich abhängig
das ist einerseits von der update-frequenz deiner site abhängig (je öfter du updatest, desto öfter kommt der bot, das system passt sich da an)

andererseits ist es von deinem "pagerank" abhängig (damit nicht gleich wieder jemand kommt und den "pagerank" mit der "pagerank-anzeige" verwechselt besser: eingehende linkpower). je besser du verlinkt bist, desto schneller kommt jeweils der bot.

bezogen auf unterseiten gilt das obige plus die linktiefe zur seite, je weiter weg von der hauptseite (bzw. von den seiten, die eingehende links erhalten haben), desto lahmer wird sich der bot gebärden.
Bilduzie - [url=httpss://plus.google.com/+HerbertSulzer/about]Google Official Bionic Top Contributor on Google Webmaster Central[/url]

w3news
PostRank 8
PostRank 8
Beiträge: 938
Registriert: 10.10.2006, 23:17
Wohnort: Berlin

Beitrag von w3news » 19.09.2007, 16:26

also meine seiten werden jeden tag gespidert und neue seiten sind innerhalb weniger tagen im index (wo auch immer :roll: ) da ich nicht gerade viele eingehende und schon gar nicht starke backlinks habe, liegt es in der gewichtung eher an der aktualisierung der seiten, also um so öfter die aktualisiert werden desto schneller werden sie indiziert, pauschal gesagt
MfG Lars

News, Tarife und Mobilfunk: w3news.de
Mobile Datenflatrates

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

pr_sniper
PostRank 9
PostRank 9
Beiträge: 1766
Registriert: 07.02.2006, 19:21

Beitrag von pr_sniper » 19.09.2007, 16:38

:D bei einer ständig aktuellen Seite, z.B. wie auch bei Abakus kommt der Bot sogar mehrfach am Tag.

Aktualität, einzigartiger Content, d.h. Nützlichkeit der Informationen für Besucher, aber auch gute innere Verlinkung, flache Struktur, aussagekräftige URLs können das zusätzlich unterstützen.

Was sollte aber der Googlebot bei einem Katalog, Verzeichnis usw., also Sites ohne jeglichen eigenen Content und nicht zuletzt eventuell Mitbewerber ständig crawlen und diese protegieren? :-?

WhispR
PostRank 2
PostRank 2
Beiträge: 42
Registriert: 24.08.2007, 13:55

Beitrag von WhispR » 19.09.2007, 20:13

Erkennt Der Googlebot Änderungen, indem er die aktuelle Seite mit seinem Cache überprüft, oder wie macht er es genau?

MikeK
PostRank 6
PostRank 6
Beiträge: 343
Registriert: 08.07.2006, 13:30
Wohnort: Düsseldorf

Beitrag von MikeK » 19.09.2007, 23:30

Vielleicht mag Google keine Kataloge die Weiterleitungen statt direkten Links nutzen? :roll:

suchus
PostRank 5
PostRank 5
Beiträge: 289
Registriert: 20.06.2007, 12:09

Beitrag von suchus » 19.09.2007, 23:44

Was soll den der Bot dort spidern, sind ja nur URLs drauf und Anzeigen?.

pr_sniper
PostRank 9
PostRank 9
Beiträge: 1766
Registriert: 07.02.2006, 19:21

Beitrag von pr_sniper » 20.09.2007, 09:08

:D "wie macht er es genau" - er vergleicht die Einsen und Nullen mit dem vorherigen Stand, ermittelt so die wahrscheinliche Erneuerungsrate der Website und einer Seite im Schnitt und stellt so seine Ressourcen zum Crawlen und Indizieren ein

Eher wohl noch theoretisch liest er auch die Sitemap nach Periodizität der Erneuerung aus und berücksichtigt diese (lastmod und changefreq).

Vega
PostRank 3
PostRank 3
Beiträge: 83
Registriert: 18.09.2007, 23:18

Beitrag von Vega » 20.09.2007, 10:04

Linkspion hat geschrieben:Hallo Forum,

was sind Eure Erfahrungen, wie häufig Websites von Google gespidered werden und wovon ist das eigentlich abhängig? Hintergrund der Frage ist, dass in meinem Webkatalog LinkSPION.de neu hinzugefügte Unterseiten teilweise relativ lange (3-4 Wochen) brauchen, bis sie von Google indiziert werden. Was könnte der Grund dafür sein?

Danke für konstruktive Infos!
Also auf meiner Seite www.vegaoptics.de ist der google bot ein ständiger Besucher bzw. Dauergast. Oftmals sind die Seiten innerhalb 24 h im Index. Der Inktomi Bot ist eher seltener da.

xxlfeuerwalze
PostRank 8
PostRank 8
Beiträge: 832
Registriert: 14.02.2007, 17:19
Wohnort: Sumatra

Beitrag von xxlfeuerwalze » 20.09.2007, 23:56

Übrigens, dein Katalog "linkspion" finde ich sehr gut. Schaue mich öfters dort um.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag