Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Page speed: Browser-caching

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
bluescreen
PostRank 4
PostRank 4
Beiträge: 105
Registriert: 29.09.2004, 18:00

Beitrag von bluescreen » 21.12.2011, 10:41

Hi,

da die Ladegeschwindigkeit inzwischen ein Rankingfaktor ist habe ich zum Test page speed (für firefox) heruntergeladen und die Seite analysieren lassen. Dass meine Ladezeit zu hoch ist wußte ich bereits vorher.

Der einzige rote Punkt ist fehlendes Browser-Caching. Allerdings weiß ich nicht, ob das gut ist.

Bekommen meine Besucher dann auch immer nur eine veralterte Seite zu sehen und müssen für neue Inhalte ständig refreshen? Dann wäre das doch eher Nachteilig für die Besucher, oder verstehe ich das falsch? Und was genau setze ich dort sinnvollerweise ein und was muß ich beachten? Kann mir bitte jemand ein Beispiel meta tag schreiben?

Danke für Eure Hilfe.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

todo
PostRank 9
PostRank 9
Beiträge: 2499
Registriert: 17.07.2008, 11:46
Wohnort: Bielefeld

Beitrag von todo » 21.12.2011, 11:00

Den Daten einer Website werden quasi Zeitstempel für eine Gültigkeitsdauer mitgegeben. Fehlt dieser Stempel werden die Daten bei jedem Besuch neu vom Server geladen. Gibts den Zeitstempel, wird die Datei aus dem Browsercache geladen. Ist dein Browsercache deaktiviert, werden immer alle Daten neu geladen.
TYPO3 und Magento Agentur
Folgt mir auf [URL=httpss://twitter.com/TobiasDohmann]Twitter[/URL]

mano_negra
PostRank 9
PostRank 9
Beiträge: 2812
Registriert: 23.07.2009, 15:29
Wohnort: la luna

Beitrag von mano_negra » 21.12.2011, 16:28

sowas schreibt man in die .htacess

wenn sich die seite ändert wird sie trotzdem neu geladen.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


bluescreen
PostRank 4
PostRank 4
Beiträge: 105
Registriert: 29.09.2004, 18:00

Beitrag von bluescreen » 21.12.2011, 16:48

vielen Dank für die schnellen Antworten.

Leider bin ich nicht so fit mit meta tags oder .htacess.

Wäre es möglich, mir eine entsprechende Zeile zu schreiben, die alle "Probleme" erschlägt?

Barthel
PostRank 9
PostRank 9
Beiträge: 1578
Registriert: 13.10.2010, 21:18

Beitrag von Barthel » 21.12.2011, 17:04

Ladezeiten sind aber eine Bremse bezüglich der Usability und der Conversions, Ranking ist nicht alles.

mano_negra
PostRank 9
PostRank 9
Beiträge: 2812
Registriert: 23.07.2009, 15:29
Wohnort: la luna

Beitrag von mano_negra » 21.12.2011, 17:29

ähäm...
für den ultimativen speed hab ich das in meinen .htaccessen stehen, frag mich aber grad ob das überhaupt richtig ist.
oder ob entweder mod_expires oder mod_headers korrekt ist?

hier der code:

Code: Alles auswählen

# Expire headers 2 Monate
<IfModule mod_expires.c>
ExpiresActive On
ExpiresByType image/x-icon "access plus 2 month"
ExpiresByType image/gif "access plus 2 month"
ExpiresByType image/jpg "access plus 2 month"
ExpiresByType image/png "access plus 2 month"
ExpiresByType text/css "access plus 2 month"
ExpiresByType text/javascript "access plus 2 month"
ExpiresByType application/javascript "access plus 2 month"
ExpiresByType application/x-javascript "access plus 2 month"
</IfModule>
# BEGIN Cache-Control Headers
<ifmodule mod_headers.c>
<filesmatch "\\.&#40;ico|jpe?g|png|gif|swf&#41;$">
Header set Cache-Control "max-age=5184000, public"
</filesmatch>
<filesmatch "\\.&#40;css&#41;$">
Header set Cache-Control "max-age=5184000, private"
</filesmatch>
<filesmatch "\\.&#40;js&#41;$">
Header set Cache-Control "max-age=5184000, private"
</filesmatch>
</ifmodule>
# Turn ETags Off
<ifmodule mod_headers.c>
Header unset ETag
</ifmodule>
FileETag None

Barthel
PostRank 9
PostRank 9
Beiträge: 1578
Registriert: 13.10.2010, 21:18

Beitrag von Barthel » 21.12.2011, 18:36

gitschi hat geschrieben: Geb Dir recht, ich will nur die Sinnhaftigkeit des Aufwandes den wir oft betreiben andenken (lassen).
Mir hat am meisten Caching + Auslagerung der meisten Dateien nach Amazon S3 gebracht. Der Geschwindigkeitsgewinn ist wirklich enorm und der Aufwand hält sich sehr in Grenzen.

decision
PostRank 6
PostRank 6
Beiträge: 409
Registriert: 15.04.2004, 20:44
Wohnort: Sebnitz

Beitrag von decision » 22.12.2011, 09:17

Kannst dich ja auch hier einlesen https://page-speed.net/ da findest du jede Menge Tipps um die die roten Punkte zu grünen Häckchen zu machen.
Tools24.org Bewertungsportal für online Webmaster-Tools

Yel nats
PostRank 7
PostRank 7
Beiträge: 646
Registriert: 28.06.2004, 07:50

Beitrag von Yel nats » 22.12.2011, 10:53

Barthel hat geschrieben:
gitschi hat geschrieben: Geb Dir recht, ich will nur die Sinnhaftigkeit des Aufwandes den wir oft betreiben andenken (lassen).
Mir hat am meisten Caching + Auslagerung der meisten Dateien nach Amazon S3 gebracht. Der Geschwindigkeitsgewinn ist wirklich enorm und der Aufwand hält sich sehr in Grenzen.

Kannst du dazu mal mehr erzählen?

Barthel
PostRank 9
PostRank 9
Beiträge: 1578
Registriert: 13.10.2010, 21:18

Beitrag von Barthel » 22.12.2011, 11:21

Es bringt Vorteile mit sich Bilddateien, JS und solche Geschichten auf eine andere Domain auszulagern. S3 eignet sich dafür halt hervorragend, weil Amazon sehr schnell ausliefert und dazu noch sehr billig ist. Ich habe damit einen Blog von 70 Punkten beim Page Speed auf 85 gebracht. Mit Caching dann noch mal von 85 auf 88. An der Geschwindigkeit wird man mit anderen Maßnahmen kaum noch etwas drehen können und bei Wordpress oder Joomla gibt es dafür Plugins, d.h. du lädst ein Bild wie gewohnt in deine Mediathek, das Plugin lädt es nach S3 und ersetzt die Links. Wenn dann jemand deine Seite aufruft, wird das Bild von S3 geladen und nicht von deinem Server.

Melegrian
PostRank 10
PostRank 10
Beiträge: 3170
Registriert: 30.01.2005, 12:36

Beitrag von Melegrian » 22.12.2011, 12:12

bluescreen hat geschrieben:Der einzige rote Punkt ist fehlendes Browser-Caching. Allerdings weiß ich nicht, ob das gut ist.
Habe gerade leichte Probleme die bisherigen Antworten richtig nachvollziehen. Meine Meinung war bisher, egal was Du da bei Browser-Caching angibst oder nicht angibst, beim ersten Seitenaufruf muss der Browser ohnehin alle Daten vom Server neu anfordern, es sei denn die werden von irgend einem Proxy zwischengespeichert, dann muss der Browser die halt beim ersten Aufruf nur noch vom Proxy neu anfordern. Doch Du meintest ja nicht den Proxy-Cache sondern den Browser-Cache und wenn Du da bisher nichts angegeben hast, wird der Browser ohnehin die besuchten Seiten nach dem ersten Aufruf zwischenspeichern.

Die Betonung liegt in diesem Fall auf "nach dem ersten Aufruf", was bedeutet, ladet die Seite beim ersten Aufruf nicht innerhalb von 2 Sekunden, gehen mit jeder weiteren Sekunde Besucher verloren, weil die Seite weggeklickt wird. Somit verlass Dich nicht auf irgendwelche Angaben betreffend des Proxy-Caches, sondern optimiere die Seiten lieber so, dass die innerhalb von 1 bis 2 Sekunden bei einer mäßigen DSL-Verbindung vollständig geladen werden, auch wenn es sich um den ersten Aufruf handelt und somit noch kein Browser-Cache vorhanden sein kann.

Dass der Amazon-Server schnell und gut ist, kann als unbestritten hingenommen werden, wird sich aber nur lohnen, wenn es sich um viele einzubindende Grafiken pro Seite handelt. Doch auch Grafiken lassen sich optimieren und brauchen nicht unbedingt mit der höchsten Auflösung abgespeichert werden.

Barthel
PostRank 9
PostRank 9
Beiträge: 1578
Registriert: 13.10.2010, 21:18

Beitrag von Barthel » 22.12.2011, 13:40

Melegrian hat geschrieben:Somit verlass Dich nicht auf irgendwelche Angaben betreffend des Proxy-Caches, sondern optimiere die Seiten lieber so, dass die innerhalb von 1 bis 2 Sekunden bei einer mäßigen DSL-Verbindung vollständig geladen werden, auch wenn es sich um den ersten Aufruf handelt und somit noch kein Browser-Cache vorhanden sein kann.
Naja, was heißt "lieber"? Sie Seite muss man so oder so optimieren und für den allerersten Aufruf kann man nichts machen als Dateien möglichst klein zu halten und sie auszulagern. Caching "wirkt" erst ab dem zweiten Aufruf, das liegt nun mal in der Natur der Sache - dann ist der Unterschied zwischen Cache und erneut alles laden gewaltig.
Dass der Amazon-Server schnell und gut ist, kann als unbestritten hingenommen werden, wird sich aber nur lohnen, wenn es sich um viele einzubindende Grafiken pro Seite handelt. Doch auch Grafiken lassen sich optimieren und brauchen nicht unbedingt mit der höchsten Auflösung abgespeichert werden.
Auch hier kommt es darauf an was man unter lohnen versteht. Selbst wenn du nur ein 50x50 jpg auf der Seite hast wird es von einer externen Quelle schneller geladen werden und hier geht es nun mal um "schneller". Je mehr Bilder du auslagerst, desto größer ist natürlich der Vorteil, aber der Vorteil ist immer da. Ich habe bei Amazon alle Files, die eingebunden werden müssen, also z.B. auch CSS und JS. Das hat unter anderem auch etwas damit zu tun, dass moderne Browser Dateien von unterschiedlichen Quellen gleichzeitig laden und man Grafiken etc. deshalb immer von einer externen Quelle laden sollte, z.B. einer Subdomain.

mano_negra
PostRank 9
PostRank 9
Beiträge: 2812
Registriert: 23.07.2009, 15:29
Wohnort: la luna

Beitrag von mano_negra » 22.12.2011, 14:25

also mit sprites, caching und komprimierung habe ich sehr gute erfahrungen gemacht.

ausgelagert hab ich noch nichts, könnte ich auch einmal versuchen.

Barthel
PostRank 9
PostRank 9
Beiträge: 1578
Registriert: 13.10.2010, 21:18

Beitrag von Barthel » 22.12.2011, 14:28

Für Wordpress benutze ich dafür W3 Total Cache. Bei Amazon gibt es aktuell auch für ein Jahr ein bestimmtes Kontingent umsonst, das Locker für rund 400-600 Besucher reicht. Probieren kostet also nicht mal etwas ^^

Melegrian
PostRank 10
PostRank 10
Beiträge: 3170
Registriert: 30.01.2005, 12:36

Beitrag von Melegrian » 22.12.2011, 16:43

Mal so grob, habe gerade in den WMT nachgeschaut, dort habe ich zwar nur zwei meiner Sites verifiziert, doch bei denen steht zumindest:
Leistungsübersicht

Im Durchschnitt benötigen Seiten auf Ihrer Website 2,0 Sekunden zum Laden (aktualisiert am 20.12.2011). Dies ist schneller als 69 % der Websites. Diese Schätzungen sind von geringer Genauigkeit...

Im Durchschnitt benötigen Seiten auf Ihrer Website 1,7 Sekunden zum Laden (aktualisiert am 20.12.2011). Dies ist schneller als 74 % der Websites. Diese Schätzungen sind von geringer Genauigkeit...
Völlig unabhängig davon, wie genau diese Schätzungen sind, so lange die Seiten immer noch unter dem Durchschnitt liegen, wüsste ich nicht warum man da noch etwas verändern oder auslagern sollte. Gedanken würde ich mir erst machen, wenn die Ladezeiten über dem Durchschnitt liegen würden.

Das mag eine völlig andere Rolle spielen, wenn es sich um Websites mit 5 bis 6 stelligen Seitenzahlen und 5 bis 7 stelligen Besucherzahlen handelt, doch bei allen was darunter liegt, reicht es meiner Meinung nach völlig aus, wenn die Ladezeiten nicht über dem allgemeinen Durchschnitt liegen. Wobei ein wenig Optimierung völlig ausreicht, um eben unter dem Durchschnitt zu kommen.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag