Seite 1 von 1

GWT: Dauer des Herunterladens einer Seite

Verfasst: 14.10.2008, 09:03
von ole1210
Servus Forum,

in den GWTs gibt es ja die Info "Dauer des Herunterladens einer Seite".

Das die Dauer möglichst gering sein sollte, ist selbstredent. Doch ab wann ist es zu langsam? Sind 10.000 ms noch OK, oder wird es schon bei 2.500 kritisch?

Gibt es hier irgendwelche Erfahrungen?

Verfasst:
von

Verfasst: 14.10.2008, 09:31
von JenaTV
Schwer zu sagen. Durch Verwendung eines besseren CMS bin ich beim Durchschnitt von über 2000ms runter auf 600ms.
Auswirkungen auf Gugl-Plätze sind nicht zu merken- die Besucher gucken mehr Seiten an weil Ihnen nicht mehr vorm Drücken auf die Navi graust.... 8)

Verfasst: 14.10.2008, 09:41
von SloMo
Die Zeit ist fürs Ranking nicht sehr relevant. Ich schätze, dass Google momentan nur die Crawl-Zyklen entsprechend anpasst. Die Zeile meiner Signatur habe ich tatsächlich bei einem Projekt vor einer Weile angezeigt bekommen. Seit das Projekt auf einen eigenen Server umgezogen ist (nun Zugriffszeiten von meist unter 500 ms) hat sich am Ranking nichts getan. Nun wird halt etwas intensiver gecrawlt.

Verfasst:
von

Verfasst: 14.10.2008, 09:52
von ole1210
Ich hätte meine Frage spezifizieren sollen. Das sich am Ranking nix ändert, ist mir klar.

Es ging mir um die Crawl-Zyklen. Gibt es da irgendwelche Erfahrungswerte, ab wann es so langsam wird, das google spürbar weniger Lust hat? Kalr, Verlinkung, Aktualität, Alter, etc. spielen auch eine Rolle. Mir geht aber nur um die Zeit.

BTW....82 Sekunden sind heftig! Das lag aber nicht nur am server, oder? Da kamm auch noch ne Digg-Frontpage oder ähnliches zu, oder?

Verfasst: 14.10.2008, 10:23
von marc75
in den GWTs gibt es ja die Info "Dauer des Herunterladens einer Seite".
kannste im GWT schnelles Crawlen aktivieren oder ist nur das normale und langsame Crawlen aktivierbar, wenn das schnelle Crawlen aktivierbar ist, ist die Ladezeit ausreichend.



PS: 1und1 Kunden können meist das schnelle Crawlen nicht aktivieren, liegt nicht am Script/Software sondern am Provider.

Verfasst: 14.10.2008, 10:43
von ole1210
Nö....kann den nur langsam und normal crwalen lassen!

Verfasst: 14.10.2008, 14:58
von SloMo
ole1210 hat geschrieben:Es ging mir um die Crawl-Zyklen. Gibt es da irgendwelche Erfahrungswerte, ab wann es so langsam wird, das google spürbar weniger Lust hat? Kalr, Verlinkung, Aktualität, Alter, etc. spielen auch eine Rolle. Mir geht aber nur um die Zeit.
Das habe ich nicht so genau untersucht. Ist auch etwas schwierig zu beurteilen, weil die Crawler bei langer Ladezeit selbstverständlich nicht so viele Hits schaffen können. Dazu müsste Google seine Crawler nicht einmal künstlich einschränken. Leider reicht die Statistik nur 90 Tage zurück, ich kann das also jetzt nicht mehr gezielt nachschauen. Aber ich meine dort seinerzeit einen plausiblen Verlauf gesehen zu haben: weniger Ladezeit => intensiveres Crawling. Und es hat sich nicht positiv auf den Traffic ausgewirkt (also keine relevanten neuen Platzierungen gebracht). Insofern hätte das Crawling auch ruhig so lahm wie vorher bleiben dürfen.
BTW....82 Sekunden sind heftig! Das lag aber nicht nur am server, oder? Da kamm auch noch ne Digg-Frontpage oder ähnliches zu, oder?
Es lag IMHO nur am Shared Webspace: Strato limitiert die offenen Datenbankverbindungen. Bei 50 gleichzeitig eingeloggten Besuchern (ungeachtet der immer anwesenden Crawler) wurde die Luft entsprechend dünn.

Verfasst: 14.10.2008, 15:35
von big-timeless
Ich habe da keine spezielle Erfahrung, nutze WMT auch nur sehr bedingt.

Persönlich kann ich aber sagen (ich weiß, ich bin kein crawler, aber pot. Kunde), dass was mehr als 5 Sek. dauert kenne ich nicht. Da bin ich weg, und selbst die 5 Sek. nur, wenn ich gut drauf bin.

Ich verbinde mit Internet auch Schnelligkeit. Und wer bei Strato, 1und1 etc. hostet, der kann damit rechnen, dass die DB Schneckengeschwindigkeit erreicht.

b-t

Verfasst: 14.10.2008, 16:27
von SloMo
marc75 hat geschrieben:kannste im GWT schnelles Crawlen aktivieren oder ist nur das normale und langsame Crawlen aktivierbar, wenn das schnelle Crawlen aktivierbar ist, ist die Ladezeit ausreichend.
Sorry Marc, aber das ist sicher falsch. Google selbst sagt:
Die Geschwindigkeit, mit der Googlebot crawlt, basiert auf vielen Faktoren. Zurzeit spielt die Crawling-Geschwindigkeit beim Durchsuchen Ihrer Website keine Rolle. Sollte sich dies ändern, wird die Option Schneller verfügbar.
Die Option "Schnelles Crawlen" hängt also nicht nur von der Ladezeit ab, was im Umkehrschluss bedeutet, dass man nicht von der Option auf die Ladezeit schlussfolgern kann.

Google wird zum Beispiel auch einbeziehen, wie häufig auf der Site geänderte oder neue Inhalte vorgefunden werden.

Verfasst: 15.10.2008, 08:25
von marc75
@slomo

Ich hatte darauf geschlossen, weil ich bei einer Webseite letztes Jahr geschwindigkeitsprobleme hatte und das Feld "Schnell" war ebenfalls deaktiviert, nach dem Providerwechsel hatte es keine 4 Wochen gedauert und ich konnte "schnell" aktivieren. Die besagte Seite hatte nicht mal viele Seiten ca. 500-600.


Ansonsten habe ich aktuell dieses deaktivierte Feld nur bei einer Seite die bei 1und1 liegt. Dort gibt es auch seit geraumer Zeit (meist Abends und Nachts) Geschwindigkeitsprobleme, das hab ich anhand der Usermitteilungen erst gemerkt.

Verfasst: 15.10.2008, 08:48
von SloMo
Wie sind denn Deine Ladezeiten und wo werden die Sites gehostet? Ich bin nach dem Strato-Fiasko inzwischen mit den meisten Projekten bei All-Inkl und habe die Option trotz guter Erreichbarkeit und kurzen Antwortzeiten nicht.

Hast Du seit dem eigentlich mehr Besucher?

Verfasst: 15.10.2008, 12:59
von marc75
@slomo

Die Ladezeiten weiß ich jetzt nicht, die besagte Seite ist jetzt bei dogado gelandet. Ist aber eher ein unbedeutenes Projekt, daher war die Wahl des neuen Providers von wenigen Faktoren abhängig.
Hast Du seit dem eigentlich mehr Besucher?
Nö, da Google mein Linktausch, etc. vor graumer Zeit nicht mochte (PR0 komplett und Abstufung um X00 Stellen). Ist aber egal da ich mich eh davon trennen werde.

Verfasst: 15.10.2008, 13:10
von socom
ich hab diese sogenannte festlegung der crawling geschwindigkeit in den wt bei 10 projekten über einen langen zeitraum verfolgt und bin zu der überzeugung gekommen, dass man "festlegen" kann was man will, das ist google sowas von sch***egal :D absolut identisches crawlverhalten bei niedrig, mittel oder hoch!

es verhält sich wie bei der aktivierung der bildersuche und die nicht vorhandenen auswirkungen auf eben diese ;)

das ist ein mist von google damit man was zum klicken hat!

crawlingzyklen im bezug auf ladezeiten hab ich bisher nie drauf geachtet.. :-?

Verfasst: 15.10.2008, 13:38
von Ehemalige Nutzer Z
naja, bei aktivierung der erweiterten bildersuche, werden die schon indexierten bild aus den serps gekickt und man muss wieder monate warten bis sich etwas tut.
habs deswegen nur einmal ausprobiert.

10.000 ms sind zehn Sekunden

Verfasst: 14.11.2008, 10:54
von hlag
Hallo Leute,

und 2.500 ms sind immer noch zweieinhalb Sekunden. Das ist aus unserer Sicht unterirdisch. Spass macht Surfen auf Seiten mit Zugriffszeiten unter 200 ms. Zum Vergleich: man surfe mal über https://www.ahrens-sieberz.de. Das ist ein Onlineshop, und zwar schon ein recht groß befüllter. Als ich den das erste Mal gesehen habe, hab ich auf Frames getippt, weil man den Aufbau des Rahmenlayouts nicht mehr mitbekommt. Habe mal die Auslieferungszeiten des html-Codes gemessen:

Durchschnitt: 119 ms bei 142 Messwerten
Min: 109 ms
Max: 169 ms

Im Vergleich dazu https://de.wordpress.com:
Durchschnitt: 625 ms bei 374 Messwerten
Min: 556 ms
Max: 3568 ms

So macht Surfen einfach keinen Spass.
Un Die Seite ist mit einer halben Sekunde im Schnitt eigentlich immer noch recht fix.

Viele Grüße,

Klaus