Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Prost Mahlzei Google Pagespeed wird relevant

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
frosch68
PostRank 1
PostRank 1
Beiträge: 6
Registriert: 13.07.2010, 21:54

Beitrag von frosch68 » 13.07.2010, 22:01

Ich muss sagen, die völlig falsche Einschätzung meine Website von Google hinsichtlich Pagespeed macht mir Sorgen.

Meine Seite ist professionell mit Typo3 umgesetzt und extrem schnell wenn ich mich durchklicke.

In den Webmastertools steht allerdings:"Im Durchschnitt benötigen Seiten auf Ihrer Website 4,8 Sekunden zum Laden (aktualisiert am 22.06.2010). Dies ist langsamer als 73 % der Websites. "

Nochmal: Meine Seite ist extrem schnell, viellleicht max. 0,5 Sek für den Aufruf einer Seite.

Aber das zählt ja alles nix. wenn Google meint sie ist langsam dann ist wohl demnächst mein Pagerank in Gefahr.

Gibt es Leidensgenossen ???
Was soll ich tun ?????

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

dell
PostRank 4
PostRank 4
Beiträge: 118
Registriert: 20.04.2010, 14:18

Beitrag von dell » 13.07.2010, 22:36

Obwohl wir in den Ferien jetzt weniger Traffic in unserem Shop haben, ist mir bei uns auch aufgefallen, dass in Webmastertools die Ladezeit erhöht ist. Wir suchen auch noch nach der Ursache.
www.kosmara.de | cosmetics and care

Sele1981
PostRank 5
PostRank 5
Beiträge: 269
Registriert: 25.06.2009, 13:57

Beitrag von Sele1981 » 13.07.2010, 23:02

Hab auch solche Werte. Bei mir liegt die Ursache am "Facebook like" button den ich drin habe. Werde den wohl ausbauen...

Vielleicht habt ihrs ja auch drin...

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


sx06050
PostRank 10
PostRank 10
Beiträge: 3376
Registriert: 15.07.2008, 10:24

Beitrag von sx06050 » 13.07.2010, 23:08

ich checks auch ned (hab gerad gegugt in den wmt)
in den webmaster grob geschätzt tools (mehr is es ja echt ned)
hat meine Seite 2,5 Sekunden, was nicht sein kann
und außerdem ist dies seite seit mitte mai von 1,0 auf 2,5 angestiegen
kann ich mir absolut nicht erklären
:o ->error
Google-> :bad-words: -> :robot:

Anonymous

Beitrag von Anonymous » 13.07.2010, 23:27

beim pagespeed wird natürlich auch alles externe mitgerechnet, also auch werbebanner etc... so hat ne Seite von mir eine Ladezeit von ca 5 Sekunden, während der crawler den Quelltext innerhalb von 0,15 - max. 0,85 Sekunden runterladen kann... aber eben die externen Banner etc von werbepartnern bremsen das dann richtig aus...

xlb
PostRank 5
PostRank 5
Beiträge: 282
Registriert: 13.08.2009, 21:11

Beitrag von xlb » 13.07.2010, 23:37

Wenn ihr die Performance eurere Seiten "schwarz auf weis" analysieren wollt, solltet ihr vielleicht das entsprechende Firebird/Firebug-Addon "PageSpeed" (von Google) ausprobieren. Sollte es irgendwo tatsächlich (neuerdings) einen Flaschenhals geben, dann könntet ihr das mit dem Dingen rausfinden.
Zuletzt geändert von xlb am 13.07.2010, 23:44, insgesamt 1-mal geändert.

sx06050
PostRank 10
PostRank 10
Beiträge: 3376
Registriert: 15.07.2008, 10:24

Beitrag von sx06050 » 13.07.2010, 23:37

das komische is nur dann, wenn im prinzip an der seite nix gemacht wurde und dann steigt das extrem an.
was willst da machen?
ursache suchen, wenn ja wie und warum auf einmal?
preloader reinbasteln?
was weiß den ich?

oliverp19
PostRank 4
PostRank 4
Beiträge: 182
Registriert: 05.03.2009, 20:32

Beitrag von oliverp19 » 14.07.2010, 00:34

mit dem problem haben wir auch zu kämpfen. networker hat das schon richtig erkannt. generiert werden die seiten ratzfatz...die hohen ladezeiten kommen durch:

- bilder
- css
- js

zustande. wenn dann sogar noch externe quellen (banner, facebook, twitter) eingebunden werden, kommen dann hohe ladezeiten zusammen. wenn ihr selbst bei euch nix gemacht habt, dann hat sich vielleicht bei dem server was geändert, von dem ihr inhalte eingebunden habt.

man sollte versuchen, externe inhalte zu vermeiden und alles bei sich auf dem server abzulegen. ansonsten noch css- und js-dateien komprimieren bzw. aufräumen. bilder komprimieren hilft natürlich auch bzw. birgt das wohl größte verbesserungspotential.

grüße
Oli

xlb
PostRank 5
PostRank 5
Beiträge: 282
Registriert: 13.08.2009, 21:11

Beitrag von xlb » 14.07.2010, 00:58

Wie bereits angemerkt : Firebird/Firebug->"PageSpeed" ist euer Freund ...

Holztechniker
PostRank 4
PostRank 4
Beiträge: 173
Registriert: 11.05.2006, 18:44

Beitrag von Holztechniker » 14.07.2010, 02:52

Das Problem hatte ich auch und ich habe es fast gelöst.

Bis jetzt hat geholfen:

1) CSS Sprite genutzt ( https://de.spritegen.website-performance.org/ )
2)alles was nicht gebraucht wird in CSS gelöscht, wie leerzeichen, kommentar
3) alle CSS und JS Dateien so weit es geht zusammen gefasst.
4) schauen wo man noch die Anzahl Requests runter schrauben kann

als Beispiel kann man sich die Seite https://www.holzwurm-page.de anschauen, an den Unterseiten muß ich noch arbeiten, da bin ich noch nicht so weit.

Was ich noch nicht gefunden habe ist ein gutes gzip Script oder wie man das am besten einbaut für CSS und JS so das es Automatisch läuft und ich nur die normalen Datei hochladen brauch.

Ich hoffe das Hilft weiter, was ich da geschrieben habe.

Hobby_SEO79
PostRank 9
PostRank 9
Beiträge: 1883
Registriert: 19.06.2008, 23:09

Beitrag von Hobby_SEO79 » 14.07.2010, 03:23

Holztechniker hat geschrieben:Das Problem hatte ich auch und ich habe es fast gelöst.

Bis jetzt hat geholfen:

1) CSS Sprite genutzt ( https://de.spritegen.website-performance.org/ )
2)alles was nicht gebraucht wird in CSS gelöscht, wie leerzeichen, kommentar
3) alle CSS und JS Dateien so weit es geht zusammen gefasst.
4) schauen wo man noch die Anzahl Requests runter schrauben kann

als Beispiel kann man sich die Seite https://www.holzwurm-page.de anschauen, an den Unterseiten muß ich noch arbeiten, da bin ich noch nicht so weit.

Was ich noch nicht gefunden habe ist ein gutes gzip Script oder wie man das am besten einbaut für CSS und JS so das es Automatisch läuft und ich nur die normalen Datei hochladen brauch.

Ich hoffe das Hilft weiter, was ich da geschrieben habe.
Du beziehst dich auf CSS+JS ... das ist wohl irrelevant. Der Code macht ja nun mal null an traffic!

Lasst euch nicht von solchen temporären Erscheinungen wie die Sau durchs Dorf jagen. Ich schau auf sowas nicht.

Warum?

Nur weil man hier vermeintlich suggeriert, dass Google den loadspeed derart "wichtet" *hust* ....

Google schaut max. ob man in einer "angemessenen" Zeit "angemessene" Daten überträgt.

Mehr wird google nicht tracken. Warum? Weils scheiss egal ist!

Und eine Website kann man mittels mehrerer Funktionen so bauen, dass preload-functions das ein wenig entschärfen.

Google wird nicht so blöd sein und komplete Ladezeiten erfassen. ist qualitativ irrelevant.

Schaut einfach, dass eure Seiten von eurer zielgruppe in 2,3,4 Sekunden geladen werden .... alles andere ist Nebelkerze! :)

GOOGLE engineer = future development --- glaubt ihr, dass tante G. sich jemals an "Werten" orientiert hat? Nicht Werte sind Googles Kapital, sondern "Entwicklungen" ..... die kann man verstehen oder nicht.

That's the game ....

Rem
PostRank 10
PostRank 10
Beiträge: 3786
Registriert: 08.12.2005, 18:45

Beitrag von Rem » 14.07.2010, 03:55

Google wird nicht so blöd sein und komplete Ladezeiten erfassen. ist qualitativ irrelevant.
Hallo Troll!

Das macht google ja auch nicht, sondern all die freiwilligen Nutzer, die sich das Test-Tool von Google runterladen. Das Tool wird dann mit Google "Daten synchronisieren".

Insofern kann man seine Ladegeschwindigkeit positiv beeinflussen oder z.B. die der Konkurrenz von mir aus negativ. Einfach an der Leitung schrauben.

Ob das in Google gewertet wird ist mir persönlich schnuppe. Ich wart doch nicht auf Dödelseiten, die in fünf Sekunden nicht laden... Da geht's Ruck-Zuck weiter. Insofern ist die "Ladezeitoptimierung" immer auch eine Optimierung, seine eigenen Nutzer zu halten. DAS HAT NICHTS MIT GOOGLE ZU TUN!

Wenn was nicht lädt, heisst es bei mir eh: "Back-Button" zurück zu Google. Schon alleine DIESE Rückwärtsbewegung könnte von Google notiert werden.

Wer weiss...

Dann einfach mal generell: meint irgendwer, Googles Interesse ist, in den Top-Positionen fünf Schnecken-Seiten zu listen, die den User um den Verstand bringen? Was würde der Google-Nutzer von Google selbst denken? Genau: Die Suma taugt nichts.

Rhetorische Frage: Hat Google ein Interesse daran, dass Nutzer denken, die Suma taugt nichts?

Google tut sich selbst einen Dienst, anhand von Faktoren die dämlichsten Seiten raussortieren, die sich einen Deut darum kümmern, die Nutzer zu halten. Egal, welche Faktoren hier gewertet werden.

Holztechniker
PostRank 4
PostRank 4
Beiträge: 173
Registriert: 11.05.2006, 18:44

Beitrag von Holztechniker » 14.07.2010, 05:48

ich denke auch, wichtig sind doch erst mal die Nutzer einer Webseite, je schneller man an seine Infos kommt, um so besser. Es macht doch wirklich keinen Spaß, wenn eine Seite Tagelang braucht zum laden.

Aber das mit der Ladezeit wird die gleiche Diskussion geben, wie über (x)html und CSS valide, da kann man sich bestimmt Tage lang drüber unterhalten ob es wichtig ist oder nicht.

Mir ist es wichtig das die Seite gut und schnell geladen wird und das der html und CSS valide ist, was ist daran so schlecht Hobby_SEO79??????

Synonym
PostRank 10
PostRank 10
Beiträge: 3708
Registriert: 09.08.2008, 02:55

Beitrag von Synonym » 14.07.2010, 07:32

@sx06050
Geht mir genauso. Fast alle Seiten wurden Ende Mai / Anfang Juni laut den WMT wesentlich langsamer. Lustig wird es dann aber, wenn man Pagespeed selbst laufen lässt, dann ist die nämlich schneller geworden. In echt ist sie das auch, wurden extra optimiert aber WMT meint halt das Gegenteil.

Vor allem bei mir zu sehen. Das was WMT direkt anmeckert sind alles Google eigene Dienste wie Adsense und gMaps. Ist ja auch kein Wunder, wenn ich sehe, dass bei den Maps gut 10 JS (von unterschiedlichen Hosts) nachträglich geladen werden und Bilder im Bereich von durchschnittlich 25. Soll ich kombinieren. Danke. Dann sollen die das doch mal machen. Ungenutzte Funktionen. Über 300 von 400. Na dann sollen die die halt mal raus nehmen.

Ist mir aber ansonsten gerade egal. Mein Pagespeed und YSlow sagen das genaue Gegenteil von den WMT.

catcat
PostRank 10
PostRank 10
Beiträge: 10292
Registriert: 02.08.2006, 13:21
Wohnort: Litauen

Beitrag von catcat » 14.07.2010, 07:50

Ich lagere halt mittlerweile in meinen shops die Bilder zu yahoo-servern aus. Ebenso die CSS- und JS-Dateien. Das scheint was zu bringen. Kostet allerdings auch was :-? Aber mit 2 Kunden/Monat mehr hab ich das auch wieder drin.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag