Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Performance: Relevanz Ladezeiten für Google -Experte gesucht

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
Robbi24
PostRank 2
PostRank 2
Beiträge: 30
Registriert: 18.12.2006, 14:34

Beitrag von Robbi24 » 26.12.2006, 15:18

Hi liebe Leute und frohe Weihnachten!

Weiss jemand von Euch, wie relevant Ladezeiten für Google sind?

Hintergrund:
* Unsere Seite ist recht langsam (ca. 12 Sek. bis Seitenaufbau)
* Dabei ist der reine dynamische Webaufbau kpl. recht schnell (mit time() zu Beginn und Ende gemessen = 2 sek.)
* Subjektiv scheint mir, dass je mehr wir auf der Seite unterbringen die Seite langsamer wird
* Ebenso sind wir mit vielen Pages auf Plätze 20-40 gerutscht.

FRAGE:
* Wie relevant ist die Ladezeit?
* Kann die jemand von Euch verbessern
(falls ja: Bitte PN an mich - gegen gute Bezahlung - sollte ein Experte sein, der auch Serverkonfigurationen beurteilen kann und an-sich-ladezeiten-optimierte Seite beschleunigen kann)


Danke schon jetzt,
Robbi

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

haha
PostRank 9
PostRank 9
Beiträge: 1065
Registriert: 03.04.2006, 18:08
Wohnort: Bi Hamborg

Beitrag von haha » 26.12.2006, 16:23

Robbi24 hat geschrieben:Weiss jemand von Euch, wie relevant Ladezeiten für Google sind?
Merke: Google sucht nicht die schnellsten Seiten im Internet, sondern die besten.
* Unsere Seite ist recht langsam (ca. 12 Sek. bis Seitenaufbau)
Ich möchte behaupten, dass Ihr damit weniger ein Problem mit Google bekommen werdet als mit Herrn Müller, der nicht nur ein langsames Modem hat, sondern als ehemaliger Akkordarbeiter auch keinen Bock, eine halbe Minute auf Euch zu warten ;)
* Ebenso sind wir mit vielen Pages auf Plätze 20-40 gerutscht.
Das kann mit Dutzenden Faktoren zusammenhängen, von denen die meisten außerhalb Googles niemand kennt.
Kann die jemand von Euch verbessern
Was hängt da überhaupt für ein System hinter, welche Sprache wird benutzt (wenn überhaupt), wo kommen die Daten her?
Zuletzt geändert von haha am 26.12.2006, 16:30, insgesamt 1-mal geändert.

Pompom
PostRank 10
PostRank 10
Beiträge: 3751
Registriert: 10.09.2004, 16:38

Beitrag von Pompom » 26.12.2006, 16:30

Die Ladezeit, besonders die Zeit des Aufbaues einer Seite im Browser, ist Google vollständig egal und dieses Kriterium geht auch nicht in das Ranking einer Seite ein. Google kommt nicht mit dem Browser, um deine Seite zu sehen, sondern mit
dem Robot, und dieser liest nur deinen Seitentext, ähnlich wie der wget-Befehl von Linux/Unix. Führe einfach mal einen Seitenzugriff von einem anderen Server aus mit wget durch, dann weist du, wie schnell (ungefähr) ein Suchmaschinenbot deine Seite laden wird.

Wenn du deine Seite (für den User, der mit dem Browser unterwegs ist) schneller machen möchtest, dann versuche möglichst auf verschachtelte Tabellen zu verzichten, gibt bei Bildern und Tabellen height und width vor. Verwende CSS.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Robbi24
PostRank 2
PostRank 2
Beiträge: 30
Registriert: 18.12.2006, 14:34

Beitrag von Robbi24 » 26.12.2006, 17:03

Hi Pompom und haha,
danke für eUre Tipps.
Die Aussage ist klar gewoden (und auch durch statistiken bestätigt): Besucher hauen ab, wenn es zu langsam wird. Logo - machen wir ja auch.

Aber ich hatte gedacht, dass Google evtl. einen Malus erteilt, wenns zu lange dauert. Aber Euer Robots-Argument hat mich überzeugt.

Ist einer von Euch Optimierungs-Experte für Server?
Ich habe den Eindruck, dass viele absulute Links zu den Pfaden mittels https://www sehr langsam machen..

schöne Grüße,
Robbi

haha
PostRank 9
PostRank 9
Beiträge: 1065
Registriert: 03.04.2006, 18:08
Wohnort: Bi Hamborg

Beitrag von haha » 26.12.2006, 17:31

Robbi24 hat geschrieben:Ich habe den Eindruck, dass viele absulute Links zu den Pfaden mittels https://www sehr langsam machen..
Nein, das unter Garantie nicht. Jeder Pfad muss letztlich auf die eine oder andere Art vom Browser als absoluter behandelt werden, denn jedes Objekt wird separat geladen. Die Übertragung verlangsamen kann, außer der Nettodatenmenge, lediglich die Menge der zur Seite gehörenden Objekte (meist Grafiken), weil für jedes Objekt eine Anfrage erforderlich ist. Bei vielen kleinen Objekten wird der Verwaltungsaufwand im Verhältnis größer als bei einem einzelnen großen Objekt.

psycho
PostRank 2
PostRank 2
Beiträge: 49
Registriert: 04.07.2006, 21:05

Beitrag von psycho » 26.12.2006, 18:26

Gibt es bei der Ladezeit echt User, die sich das antun und den kompletten Seitenaufbau abwarten? :o Die Ladezeit einer Seite ist mit Sicherheit ein Rankingkriterium, wie stark es einfließt, ist genauso wenig bekannt, wie vieles andere ;)

PS: gibt jemand freiwillig Links für so eine langsame Seite? Ich würde derartiges mit 99%iger Sicherheit nicht verlinken ...

pr_sniper
PostRank 9
PostRank 9
Beiträge: 1766
Registriert: 07.02.2006, 19:21

Beitrag von pr_sniper » 26.12.2006, 19:09

:D
Die Ladezeit einer Seite ist mit Sicherheit ein Rankingkriterium


- sicher. Sonst würde Google seine Ressourcen (=kostbare Rechenzeit) sinnlos für etwas verausgaben, was es eventuell überhaupt nicht gibt. Immer wieder: auch Google ist "nur" ein Besucher. Ansonsten stimmt der Algorithmus nicht.

ani-K
PostRank 5
PostRank 5
Beiträge: 220
Registriert: 09.01.2006, 16:00

Beitrag von ani-K » 26.12.2006, 19:58

Immerhin speichert Google die Ladezeit. Wer eine zB. Sitemap bei Google hat, kann die Ladezeit in einer Statistik über die letzten Monate abrufen. Wieso sollte Google sonst die Ladezeit speichern?

Pompom
PostRank 10
PostRank 10
Beiträge: 3751
Registriert: 10.09.2004, 16:38

Beitrag von Pompom » 26.12.2006, 20:02

Wie gesagt, Google ruft die Seiten nur ab, und muss sie nicht laden.
Eine lahme Seite, wie z.B. spiegel.de oder focus.de im Browser zu laden, dauert sekunden. Für die gleiche Seite brauch ein Robot Sekundenbruchteile.

psycho
PostRank 2
PostRank 2
Beiträge: 49
Registriert: 04.07.2006, 21:05

Beitrag von psycho » 26.12.2006, 20:12

@pompom: Zitat: "Google ruft die Seiten nur ab, und muss sie nicht laden" - :roll: Wie soll das gehen? Davon mal ganz abgesehen, schreibst Du weiter oben etwas von einem bottypisch wget-ähnlichen Abrufen (=laden!!!), was so aber nicht stimmt oder glaubst Du etwa, dass der Bot für die Google-Bilder-Suche keinerlei Infos vom normalen Google-Bot bekommt und andersherum? Es ist doch überhaupt kein Kunststück (schon gar nicht für Google), die komplette Seite einzulesen ohne dabei jedes mal auch wirklich alles zu ziehen. Die nicht gezogenen Teile (Bilder etc.) können einfach hochgerechnet werden oder es werden halt nur alle 2 Wochen die kompletten Ladezeiten bestimmt und gespeichert oder oder oder ...

Seiten wie spiegel etc. brauchen zwar keine 12s, aber durchaus recht lange. Das stimmt zweifelsfrei. Aber die haben auch 2 oder 3 Backlinks mehr, als Du. Das relativiert sich somit. Das Ranking kennt nun mal viele Kriterien, die alle irgendwie einfließen und wenn Du ein paar schechte Faktoren hast, kannst Du diese durch andere extrem gute wieder ausgleichen. Das ist doch kein Buch mit 7 Siegeln sondern selbstverständlich oder?

@pr_sniper: Bist Du Google? :o Mal im Ernst: die haben 6stellige CPU-Anzahlen in ihren Datencentern, von den Speichermengen wollen wir mal gar nicht erst reden. Meinst Du echt, dass die eine simple Zeitmessung überfordern würde? :arrow: Dann wäre Big-G nicht Big-G :wink:

Pompom
PostRank 10
PostRank 10
Beiträge: 3751
Registriert: 10.09.2004, 16:38

Beitrag von Pompom » 26.12.2006, 20:24

@psycho
Jungejunge, vielleicht solltest Du dich mal informieren, wie so ein Konstrukt wie eine Suchmaschine funktioniert.
Wie soll das gehen? Davon mal ganz abgesehen, schreibst Du weiter oben etwas von einem bottypisch wget-ähnlichen Abrufen (=laden!!!), was so aber nicht stimmt oder glaubst Du etwa, dass der Bot für die Google-Bilder-Suche keinerlei Infos vom normalen Google-Bot bekommt und andersherum?
Alleine diese Aussage zeugt davon, dass du Null (0) Ahnung hast.
Kleine Hilfe:
https://www.google.de/search?hl=de&rls= ... uche&meta=
Immer wieder: auch Google ist "nur" ein Besucher. Ansonsten stimmt der Algorithmus nicht.
Mach mal ein paar wackelnde Möpse drauf, dann kommt der Bot sicher öfter und hält sich sicher länger auf deiner Seite auf. :lol:

Der Bot zieht nur die Daten, die gesamte Verarbeitung und Analyse dieser erfolgt im Nachgang.

Jojo
PostRank 9
PostRank 9
Beiträge: 2847
Registriert: 19.03.2004, 10:33
Wohnort: Papenburg

Beitrag von Jojo » 26.12.2006, 21:00

Vor nicht allzu langer Zeit gab es mal die Info von Google (ich glaub Matt Cutts) das die Ladezeit einer Seite kein Rankingkriterium ist.

ArturO
PostRank 6
PostRank 6
Beiträge: 372
Registriert: 25.09.2005, 10:41

Beitrag von ArturO » 26.12.2006, 22:23

Mannohman!
Hier https://www.mattcutts.com/blog/myth-bus ... e-loading/
Matt Cutts persönlich löst den mythos auf. Aber einige hier glauben wohl immernoch an den Weihnachtsmann. Ich hoffe dieser mythos nicht noch hier für entrüstung sorgt.

Kassandra70
PostRank 4
PostRank 4
Beiträge: 198
Registriert: 11.01.2006, 00:48
Wohnort: Gran Canaria

Beitrag von Kassandra70 » 27.12.2006, 01:31

Matt Cutts schreibt von einer halben Sekunde bis fünf Sekunden Ladezeit. Die Frage wäre demnach, wenn der Google-Bot sich wie ein normaler Mensch verhält, wartet der auch Extreme ab, z.B. diese zwölf Sekunden oder noch mehr, oder bricht er die Anfrage nicht einfach ab und nimmt das, was er bis zu diesem Zeitpunkt hat. Zum Beispiel nur den Header mit den Meta-Tags. Also nur unvollständig die Seite in den Index befördert. Dies könnte man ja dadurch überprüfen, in dem man so schaut, was und wie die Seiten im Index stehen, wenn ich nach einem bestimmten Suchbegriff suche.
Mein Firefox wartet ja auch nicht ewig, bis er eine Seite aufruft.
Wenn jetzt die Seite A zu diesem Suchbegriff im Index ist, würde ich, um das zu testen, mir die Seite aufrufen und noch ein zweites Keyword vom Ende der Seite suchen (Ende Ladevorgang, muss aber nicht optisches Ende sein) und nach der Kombi suchen. Wenn das so drin ist, ist die Seite wohl nicht zu lahm, wenn nicht, könnte es ein Indiz sein.
Die Frage ist aber doch eher, da wir ja nicht für Google bauen, sondern für die User, wie verringere ich die Ladezeit, woran hängt es? Denn wie ein Vorschreiber schon berichtet hat, wer linkt auf solche Seiten, außer als abschreckendes Beispiel? Und damit ist es Google-mäßig ein Nachteil, denn wer will schon mit dem Linktext „Abschreckendes Beispiel für Ladezeiten“ gelinkt oder gefunden werden ;-)
Und Robbi24, mit deiner Vermutung:
Robbi24 hat geschrieben:Subjektiv scheint mir, dass je mehr wir auf der Seite unterbringen die Seite langsamer wird
liegst du 100 Prozent richtig, falls dir das ein Trost ist ;-)
Ich hab auch gerade so ein Kundenprojekt auf dem Tisch, da sind die Ladezeiten noch höher, stellenweise bei 20 Sekunden noch. Allerdings soll ich da nur die Ladezeit verbessern, Besucher von Google sind nicht so relevant, sonst hätte ich mir die Mühe mit dem o.g. Test gemacht.
So weitermachen, hoffe alle haben die Weihnachtstage gut überstanden ....
Kassandra

edit: nicht prozente, sekunden waren es ;-)
https://www.anabell.de - ein nicht optimiertes Projekt mit tausend Themen

Scubi
PostRank 8
PostRank 8
Beiträge: 947
Registriert: 22.08.2003, 19:38

Beitrag von Scubi » 27.12.2006, 03:09

Wichtig in diesem Fall ist sicher.. wie lange braucht Google für das einlesen einer Sitemap.

Ich spreche hier nicht vom lesen einer Google sitemap.xml sondern von einer normalen Sitemap.

Umso schneller das geht, umso mehr Seiten werden auch gelesen.. so mein subjektiver eindruck. Muß nicht stimmen.. ist nur so ein Gefühl, habe das statistisch nicht auswerten können. Habe aber das Gefühl, das mit dem schnelleren Server auch mehr Seiten in einem rutsch gelesen wurden.

Somit auch schneller neu Seiten im Index.

Wie gesagt.. ist nur ein Gefühl bischen Logik steckt auch hinter. Einen Beweis kann ich nicht führen, frü den Fall, das jetzt wieder welche kommen, das sie das bewiesen haben wollen :-)

Gruß Scubi

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag