Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Page speed: Browser-caching

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Barthel
PostRank 9
PostRank 9
Beiträge: 1578
Registriert: 13.10.2010, 21:18

Beitrag von Barthel » 22.12.2011, 17:01

Melegrian hat geschrieben:Wobei ein wenig Optimierung völlig ausreicht, um eben unter dem Durchschnitt zu kommen.
Wenn es um das Ranking geht vielleicht, bei den Conversions ist schneller immer besser. Eine Sekunde mehr Ladezeit bedeutet laut einer Statistik rund 7% weniger Conversions, Amazon hat bei einer Zunahme der Ladezeit von einer Zehntelsekunde 1% weniger Umsatz.

Ob jetzt eine oder 1,5 Sekunden mag dir völlig egal sein, aber Spon lädt beispielsweise in über 10 Sekunden - trotz CDN. Ohne könntest du dir wahrscheinlich einen Kaffee holen bis die Seite mal da ist.

Abhängig ist das ganze vor allem auch von den Besuchern, denn wenn sich viele Besucher auf deinem Server tummeln, freut er sich, wenn er Bilder, CSS und so Sachen nicht ausliefern muss. Wenn du nur 100 Besucher am Tag hast und deine Seite auf einer ausreichend starken Kiste läuft, hast du da eher weniger Probleme.

Ein weiterer Vorteil von S3 und einem CDN allgemein ist, dass du Seiten auf lahmem Webspace enorm beschleunigen kannst. Bei mir laufen Blogs auf Webspace als ob sie nen Root unter der Haube hätten, das ganze lohnt sich also auch von den Kosten her ziemlich ;-)

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Melegrian
PostRank 10
PostRank 10
Beiträge: 3170
Registriert: 30.01.2005, 12:36

Beitrag von Melegrian » 22.12.2011, 17:47

Bestreite ich nicht, habe mir die Preislisten von Amazon heute auch besehen und es sieht ja günstig aus.

Auf der anderen Seite habe ich noch nie begriffen, warum zum Beispiel bei einer CSS für jede Stylesheet-Angabe eine neue Zeile benutzt wird, statt alle zu einem Selektor gehörende Angaben in einer Zeile zu notieren, wodurch die CSS an Übersichtlichkeit zunimmt und die Größe sich um rund 10 bis 15 Prozent verringert. Oder warum einige Quelltexte mehr Leerzeilen und mehr Einrückungen besitzen, als für eine gute Übersichtlichkeit erforderlich wäre. In den meisten Programmiersprachen hat man dafür einen Compiler, der alle Leerzeilen, Kommentare usw. entfernt, da unnötiger Ballast. HTML als Auszeichnungssprache kennt hingegen so etwas nicht. Im HTML-Quelltext und in der CSS muss man halt selbst etwas aufräumen, um die Größe zu verringern.
Oder warum ein größeres JPG nicht in mehreren Komprimierungsstufen abgespeichert wird, um sich dann die auszusuchen, bei der mit Brille noch keine Qualitätseinbuße feststellbar ist.

Und wenn alles nichts nutzt, dass eventuell auch mal kontrolliert wird, ob der Datenbankzugriff lahmt. Somit alles Kleinigkeiten, die durchaus mit zu einer lahmenden Seite führen können, die aber oftmals kaum berücksichtigt werden.

Beloe007
PostRank 10
PostRank 10
Beiträge: 2928
Registriert: 05.03.2009, 10:31

Beitrag von Beloe007 » 22.12.2011, 18:05

Es bringt auch viel einen abgespeckten Apache für die Bilder usw.. zu verwenden.