Seite 1 von 1

Ladezeiten doch ein Ranking Faktor?

Verfasst: 03.02.2010, 14:23
von devolo01
Hi gerade gefunden, und die Diskussion lief ja eigentlich schon mal im Dezember. Aber meint Ihr das die Ladezeit der Webseite mit Caffein doch ins Ranking einbezogen wird?

https://www.seomoz.org/ugc/optimizing-p ... ogle-tools
This was Google planning ahead for the introduction of page loading times as a ranking factor, and sure enough, towards the end of the year – Matt Cutts confirmed that in 2010, page speed may be considered when ranking SERPs.

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Verfasst: 03.02.2010, 15:05
von web_worker
Die Jungs aus Mountain View sollen erstmal schauen, dass sie Caffeine online bekommen. Die Blindschleiche MC hat ja große Sprüche geklopft, dass das Anfang Januar passieren soll. Ich glaub, der Typ hat auch keinen Plan, von dem was bei Google wirklich passiert.

Naja. Aber ich denke schon, dass früher oder später Ladezeiten mit einfließen werden. Nur die momentane Datenerhebung finde ich sehr bedenklich. Da schmeiß ich doch glatt ISDN wieder an und lass mal ein paar Tage automatisiert die Konkurrenz durchbrowsen. Das ist irgendwie nicht repräsentativ.

ww

Verfasst: 03.02.2010, 21:37
von expy
ich kann aus erster hand sagen dass es aktuell keine auswirkungen hat. habe mittles speed tool alles mögliche optimiert... aber seite ranked immer noch nicht besser.

Verfasst:
von
Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Verfasst: 04.02.2010, 11:39
von sumacrusader
Das einzige was dadurch beeinflusst wird ist das crawlen, die bots verlassen die Seite wieder und crawlen weniger.

Das hat naürlich keine direkte Auswirkung auf das ranking, aber wenn ein bot einen 600 Wörter langen Text nur bis zum Wort 300 crawlt fehlt der Rest halt

Verfasst: 04.02.2010, 11:50
von web_worker
sumacrusader hat geschrieben:Das einzige was dadurch beeinflusst wird ist das crawlen, die bots verlassen die Seite wieder und crawlen weniger.

Das hat naürlich keine direkte Auswirkung auf das ranking, aber wenn ein bot einen 600 Wörter langen Text nur bis zum Wort 300 crawlt fehlt der Rest halt
Das ist quatsch. Ein http get auf die URL und parsen des Results ist weitaus weniger als gewöhnliches Browserverhalten. Probleme, die Browserzugriffe verursachen (latente Verbindungen, max. 2 offene Connections zu einem Host, ungecachter Content, zuviele Parallele Requests auf ungecachten statischen Content) - alles irrelevant für einen Bot, der liest nur dummen Quelltext.

Einzig und allein die Antwortzeiten Deines Servers sind hier relevant. Wenn der Server nicht mehr in ankzeptabler Zeit antwortet, fährt Google die Crawling-Frequenz runter, einen Text nur zur Hälfte crawlen und auswerten ist sinnfrei.

ww

Re: Ladezeiten doch ein Ranking Faktor?

Verfasst: 05.02.2010, 02:39
von Artikel-SEO (gesperrt)
devolo01 hat geschrieben:Ladezeit der Webseite mit Caffein doch ins Ranking einbezogen wird?
Mit Sicherheit. Eine Webseite mit extrem langer Ladezeit entspricht nicht dem Grundgedanken von Google.

Das heisst genauer gesagt....weniger Nutzen fuer die User...

Re: Ladezeiten doch ein Ranking Faktor?

Verfasst: 05.02.2010, 09:34
von Stephan100
.... sehe ich genauso, die Ladezeit wird ins Ranking einfließen.

Allerdings wird die Ladezeit nur ein Parameter von 100/200/ oder vielleicht
auch 300 sein.

Und sicherlich sind die Parameter auch unterschiedlich gewichtet, sodass
die Ladezeit vielleicht nur 0,3 % Einfluss auf das Gesamtergebnis hat.

Oft sind 03, % vermutlich so viel wie nix, manchmal können sie aber aber auch das Zünglein an der Waage sein.

Verschenken sollte man dsbzgl. sicher nichts.


Artikel-SEO hat geschrieben:
devolo01 hat geschrieben:Ladezeit der Webseite mit Caffein doch ins Ranking einbezogen wird?
Mit Sicherheit. Eine Webseite mit extrem langer Ladezeit entspricht nicht dem Grundgedanken von Google.

Das heisst genauer gesagt....weniger Nutzen fuer die User...

Verfasst: 05.02.2010, 10:07
von sumacrusader
Einzig und allein die Antwortzeiten Deines Servers sind hier relevant. Wenn der Server nicht mehr in ankzeptabler Zeit antwortet, fährt Google die Crawling-Frequenz runter, einen Text nur zur Hälfte crawlen und auswerten ist sinnfrei.
Irgendwann kommt ein timeout und dann bricht der bot ab und liest die Seite nicht zu ende. Viele seiten liegen weder in html vor noch sind sind sie gecached sondern werden aus der DB zusammengebaut.

Verfasst: 05.02.2010, 11:45
von FranzderFranke

Verfasst: 05.02.2010, 18:19
von Runaway
expy hat geschrieben:ich kann aus erster hand sagen dass es aktuell keine auswirkungen hat. habe mittles speed tool alles mögliche optimiert... aber seite ranked immer noch nicht besser.
Es kommt wahrscheinlich auch auf die Art der Seite an. Das man mit ein bisschen Geschwindigkeit zu harten Keys auf die man optimiert besser ranked, glaube ich auch nicht. Da haben die anderen Faktoren wohl zu viel Gewicht.
Aber dass es im Longtail vor allem bei großen Seiten etwas bringt, könnte ich mir schon vorstellen.

Ich verweise mal auf das Interview mit Dennis Goedegebuure, Head of SEO bei eBay auf https://www.seobook.com/ebay-seo (sowieso recht interessant zu lesen)
Have you ever had any happy accidents where someone changed stuff without mentioning it, causing an increase in traffic?

Yes, just recently a renewed internal focus on site speed has also shown some good increases of traffic in Natural Search. I was aware of the renewed focus, where I actually kicked off some of the discussions back in 2007. Now that site speed is becoming more important as a ranking factor, the projects to enhance the speed of the eBay pages might pay off more in 2010.
Das geht ja so in diese Richtung.

Verfasst: 05.02.2010, 18:40
von net(t)worker
expy hat geschrieben:ich kann aus erster hand sagen dass es aktuell keine auswirkungen hat. habe mittles speed tool alles mögliche optimiert... aber seite ranked immer noch nicht besser.
na, damit der Test halbwegs aussagekräftig ist musste nu noch testen ob die Site schlechter rankt wenn sie extrem langsam wird... :roll:

denn das wäre in meinen Augen ein Grund eine Site schlechter zu ranken, so nach dem Motto "Die Site ist so überlastet das der Server schon langsam ist, also sollten wir da nicht mehr so viel User hinschicken"....

Verfasst: 08.02.2010, 23:22
von expy
@net(t)worker

der vergleich erfogt mit meinen konkurrenten. meine seite ist die schnellste von allen und hat bisher nichts im ranking gebracht.

Verfasst: 23.02.2010, 10:16
von t567
klingt plausibel. jedenfalls dürfte feststehen, dass speed kein nachteil ist und sein wird...

Verfasst: 23.02.2010, 10:52
von Malte Landwehr
Mathematische Rechthaberei und Pedanterie
net(t)worker hat geschrieben:damit der Test halbwegs aussagekräftig ist musste nu noch testen ob die Site schlechter rankt wenn sie extrem langsam wird...
Auch das wäre noch nicht mal ansatzweise ein aussagekräftiger Test. Aber ich glaube einem SEO zu erklären was ein Test (ein echter Test, mit mathematischem Hintergrund und so) ist, ist vergebene Mühe. 99% verlassen sich lieber auf "Ich hab das irgendwie an einer meiner Seiten ausprobiert und das dann irgendwie gemessen. Nach diesem Test habe ich mir überlegt, wie ich Daten interpretieren könnte. Damit habe ich die Thematik vollständig und richtig verstanden".

Zum Thema
Auch wenn es aktuell an Beweisen fehlt, dass die Ladezeit sich bereits auf das Ranking auswirkt, gibt es keinen Grund, sie nicht zu optimieren. Es muss jetzt nicht gleich ein High-Performance Server für jede Linktausch-Seite sein aber allein mit schlauen Scripts und optimierten Bildern kann man bei vielen Seiten noch einiges an Leistung rausholen (und damit sogar auch noch Serverlast und Traffic [also Geld] sparen).

Und wenn man sich mal anschaut, was Google alles für ein schnelleres Internet tut (Page Speed, DNS, SPDY for HTTP), dann sollte klar sein, dass Geschwindigkeit in Zukunft eine immer größere Rolle spielen wird. Nicht nur für Google, sondern auch für User.

Verfasst: 23.02.2010, 13:02
von 800XE
web_worker hat geschrieben:
sumacrusader hat geschrieben:wenn ein bot einen 600 Wörter langen Text nur bis zum Wort 300 crawlt fehlt der Rest halt
einen Text nur zur Hälfte crawlen und auswerten ist sinnfrei.
sumacrusader hat geschrieben:
einen Text nur zur Hälfte crawlen und auswerten ist sinnfrei.
Irgendwann kommt ein timeout und dann bricht der bot ab und liest die Seite nicht zu ende.

Viele seiten liegen weder in html vor .... werden aus der DB zusammengebaut.
Wann kommt der Timeout?
z.B. Wordpress und alles was den html durch php unterbricht

Da wird die Seite stückschenweise ausgegeben
Der Content ist aber wohl anzunehmenderweise EIN Stückchen
entweder
(A) vor diesem Stückchen wird ein PHP nicht vertig
(B) nach diesem Stückchen wird ein PHP nicht vertig
entweder
(A) der Content ist ganicht da
(B) der COntent ist komplett da (aber der Footer fehlt und vielleicht die Navi, wenn die im HTML nach dem Content kommt)

Die Seite wird vielleicht nur "halb" = zu50% +- 49% gelsen
aber der Content wird sicherlich entweder ganz oder garnicht
.... OK. Blogbeitrag = eine DBabfrage und die Kommentare eine Weitere DBabfrage ... eventuell ... und die Kommentare sind ja Web2.0 Content

bei mir ist es so, das erst alles eingelesen und generiert wird und dann das html als großes ganzen rausfliegt ..... keine Stückchenweise auslieferung .... da kann dann schonmal so ein Timeaut leichter zuschlagen .... der Timeoutzähler beginnt nehmlich eventuell von vorne zu zäheln nachdem ein Häppchen gekommen ist