Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

GWT: Dauer des Herunterladens einer Seite

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
ole1210
PostRank 10
PostRank 10
Beiträge: 7464
Registriert: 12.08.2005, 10:40
Wohnort: Olpe

Beitrag von ole1210 » 14.10.2008, 09:03

Servus Forum,

in den GWTs gibt es ja die Info "Dauer des Herunterladens einer Seite".

Das die Dauer möglichst gering sein sollte, ist selbstredent. Doch ab wann ist es zu langsam? Sind 10.000 ms noch OK, oder wird es schon bei 2.500 kritisch?

Gibt es hier irgendwelche Erfahrungen?

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

JenaTV
PostRank 8
PostRank 8
Beiträge: 900
Registriert: 24.05.2004, 11:00
Wohnort: Jena

Beitrag von JenaTV » 14.10.2008, 09:31

Schwer zu sagen. Durch Verwendung eines besseren CMS bin ich beim Durchschnitt von über 2000ms runter auf 600ms.
Auswirkungen auf Gugl-Plätze sind nicht zu merken- die Besucher gucken mehr Seiten an weil Ihnen nicht mehr vorm Drücken auf die Navi graust.... 8)

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 14.10.2008, 09:41

Die Zeit ist fürs Ranking nicht sehr relevant. Ich schätze, dass Google momentan nur die Crawl-Zyklen entsprechend anpasst. Die Zeile meiner Signatur habe ich tatsächlich bei einem Projekt vor einer Weile angezeigt bekommen. Seit das Projekt auf einen eigenen Server umgezogen ist (nun Zugriffszeiten von meist unter 500 ms) hat sich am Ranking nichts getan. Nun wird halt etwas intensiver gecrawlt.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


ole1210
PostRank 10
PostRank 10
Beiträge: 7464
Registriert: 12.08.2005, 10:40
Wohnort: Olpe

Beitrag von ole1210 » 14.10.2008, 09:52

Ich hätte meine Frage spezifizieren sollen. Das sich am Ranking nix ändert, ist mir klar.

Es ging mir um die Crawl-Zyklen. Gibt es da irgendwelche Erfahrungswerte, ab wann es so langsam wird, das google spürbar weniger Lust hat? Kalr, Verlinkung, Aktualität, Alter, etc. spielen auch eine Rolle. Mir geht aber nur um die Zeit.

BTW....82 Sekunden sind heftig! Das lag aber nicht nur am server, oder? Da kamm auch noch ne Digg-Frontpage oder ähnliches zu, oder?

marc75
PostRank 9
PostRank 9
Beiträge: 1916
Registriert: 06.10.2004, 09:36

Beitrag von marc75 » 14.10.2008, 10:23

in den GWTs gibt es ja die Info "Dauer des Herunterladens einer Seite".
kannste im GWT schnelles Crawlen aktivieren oder ist nur das normale und langsame Crawlen aktivierbar, wenn das schnelle Crawlen aktivierbar ist, ist die Ladezeit ausreichend.



PS: 1und1 Kunden können meist das schnelle Crawlen nicht aktivieren, liegt nicht am Script/Software sondern am Provider.

ole1210
PostRank 10
PostRank 10
Beiträge: 7464
Registriert: 12.08.2005, 10:40
Wohnort: Olpe

Beitrag von ole1210 » 14.10.2008, 10:43

Nö....kann den nur langsam und normal crwalen lassen!

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 14.10.2008, 14:58

ole1210 hat geschrieben:Es ging mir um die Crawl-Zyklen. Gibt es da irgendwelche Erfahrungswerte, ab wann es so langsam wird, das google spürbar weniger Lust hat? Kalr, Verlinkung, Aktualität, Alter, etc. spielen auch eine Rolle. Mir geht aber nur um die Zeit.
Das habe ich nicht so genau untersucht. Ist auch etwas schwierig zu beurteilen, weil die Crawler bei langer Ladezeit selbstverständlich nicht so viele Hits schaffen können. Dazu müsste Google seine Crawler nicht einmal künstlich einschränken. Leider reicht die Statistik nur 90 Tage zurück, ich kann das also jetzt nicht mehr gezielt nachschauen. Aber ich meine dort seinerzeit einen plausiblen Verlauf gesehen zu haben: weniger Ladezeit => intensiveres Crawling. Und es hat sich nicht positiv auf den Traffic ausgewirkt (also keine relevanten neuen Platzierungen gebracht). Insofern hätte das Crawling auch ruhig so lahm wie vorher bleiben dürfen.
BTW....82 Sekunden sind heftig! Das lag aber nicht nur am server, oder? Da kamm auch noch ne Digg-Frontpage oder ähnliches zu, oder?
Es lag IMHO nur am Shared Webspace: Strato limitiert die offenen Datenbankverbindungen. Bei 50 gleichzeitig eingeloggten Besuchern (ungeachtet der immer anwesenden Crawler) wurde die Luft entsprechend dünn.

big-timeless
PostRank 9
PostRank 9
Beiträge: 1371
Registriert: 09.10.2005, 21:31

Beitrag von big-timeless » 14.10.2008, 15:35

Ich habe da keine spezielle Erfahrung, nutze WMT auch nur sehr bedingt.

Persönlich kann ich aber sagen (ich weiß, ich bin kein crawler, aber pot. Kunde), dass was mehr als 5 Sek. dauert kenne ich nicht. Da bin ich weg, und selbst die 5 Sek. nur, wenn ich gut drauf bin.

Ich verbinde mit Internet auch Schnelligkeit. Und wer bei Strato, 1und1 etc. hostet, der kann damit rechnen, dass die DB Schneckengeschwindigkeit erreicht.

b-t
Touristik, regenerative Energien und mal wieder IMMOBILIEN! bitte PM.
<br><br>Gutes Suchen: https://de.forestle.org/ o hazte fan de Ecosia

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 14.10.2008, 16:27

marc75 hat geschrieben:kannste im GWT schnelles Crawlen aktivieren oder ist nur das normale und langsame Crawlen aktivierbar, wenn das schnelle Crawlen aktivierbar ist, ist die Ladezeit ausreichend.
Sorry Marc, aber das ist sicher falsch. Google selbst sagt:
Die Geschwindigkeit, mit der Googlebot crawlt, basiert auf vielen Faktoren. Zurzeit spielt die Crawling-Geschwindigkeit beim Durchsuchen Ihrer Website keine Rolle. Sollte sich dies ändern, wird die Option Schneller verfügbar.
Die Option "Schnelles Crawlen" hängt also nicht nur von der Ladezeit ab, was im Umkehrschluss bedeutet, dass man nicht von der Option auf die Ladezeit schlussfolgern kann.

Google wird zum Beispiel auch einbeziehen, wie häufig auf der Site geänderte oder neue Inhalte vorgefunden werden.

marc75
PostRank 9
PostRank 9
Beiträge: 1916
Registriert: 06.10.2004, 09:36

Beitrag von marc75 » 15.10.2008, 08:25

@slomo

Ich hatte darauf geschlossen, weil ich bei einer Webseite letztes Jahr geschwindigkeitsprobleme hatte und das Feld "Schnell" war ebenfalls deaktiviert, nach dem Providerwechsel hatte es keine 4 Wochen gedauert und ich konnte "schnell" aktivieren. Die besagte Seite hatte nicht mal viele Seiten ca. 500-600.


Ansonsten habe ich aktuell dieses deaktivierte Feld nur bei einer Seite die bei 1und1 liegt. Dort gibt es auch seit geraumer Zeit (meist Abends und Nachts) Geschwindigkeitsprobleme, das hab ich anhand der Usermitteilungen erst gemerkt.

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 15.10.2008, 08:48

Wie sind denn Deine Ladezeiten und wo werden die Sites gehostet? Ich bin nach dem Strato-Fiasko inzwischen mit den meisten Projekten bei All-Inkl und habe die Option trotz guter Erreichbarkeit und kurzen Antwortzeiten nicht.

Hast Du seit dem eigentlich mehr Besucher?

marc75
PostRank 9
PostRank 9
Beiträge: 1916
Registriert: 06.10.2004, 09:36

Beitrag von marc75 » 15.10.2008, 12:59

@slomo

Die Ladezeiten weiß ich jetzt nicht, die besagte Seite ist jetzt bei dogado gelandet. Ist aber eher ein unbedeutenes Projekt, daher war die Wahl des neuen Providers von wenigen Faktoren abhängig.
Hast Du seit dem eigentlich mehr Besucher?
Nö, da Google mein Linktausch, etc. vor graumer Zeit nicht mochte (PR0 komplett und Abstufung um X00 Stellen). Ist aber egal da ich mich eh davon trennen werde.

socom
PostRank 5
PostRank 5
Beiträge: 254
Registriert: 02.07.2008, 20:19

Beitrag von socom » 15.10.2008, 13:10

ich hab diese sogenannte festlegung der crawling geschwindigkeit in den wt bei 10 projekten über einen langen zeitraum verfolgt und bin zu der überzeugung gekommen, dass man "festlegen" kann was man will, das ist google sowas von sch***egal :D absolut identisches crawlverhalten bei niedrig, mittel oder hoch!

es verhält sich wie bei der aktivierung der bildersuche und die nicht vorhandenen auswirkungen auf eben diese ;)

das ist ein mist von google damit man was zum klicken hat!

crawlingzyklen im bezug auf ladezeiten hab ich bisher nie drauf geachtet.. :-?

Anonymous

Beitrag von Anonymous » 15.10.2008, 13:38

naja, bei aktivierung der erweiterten bildersuche, werden die schon indexierten bild aus den serps gekickt und man muss wieder monate warten bis sich etwas tut.
habs deswegen nur einmal ausprobiert.

hlag
PostRank 2
PostRank 2
Beiträge: 32
Registriert: 01.09.2003, 14:22
Wohnort: Bonn

Beitrag von hlag » 14.11.2008, 10:54

Hallo Leute,

und 2.500 ms sind immer noch zweieinhalb Sekunden. Das ist aus unserer Sicht unterirdisch. Spass macht Surfen auf Seiten mit Zugriffszeiten unter 200 ms. Zum Vergleich: man surfe mal über https://www.ahrens-sieberz.de. Das ist ein Onlineshop, und zwar schon ein recht groß befüllter. Als ich den das erste Mal gesehen habe, hab ich auf Frames getippt, weil man den Aufbau des Rahmenlayouts nicht mehr mitbekommt. Habe mal die Auslieferungszeiten des html-Codes gemessen:

Durchschnitt: 119 ms bei 142 Messwerten
Min: 109 ms
Max: 169 ms

Im Vergleich dazu https://de.wordpress.com:
Durchschnitt: 625 ms bei 374 Messwerten
Min: 556 ms
Max: 3568 ms

So macht Surfen einfach keinen Spass.
Un Die Seite ist mit einer halben Sekunde im Schnitt eigentlich immer noch recht fix.

Viele Grüße,

Klaus
_________________________
Auch die schönste Frau
ist an den Füßen
zu Ende...

Website Monitoring: https://www.sitealert.de

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag