Seite 1 von 1

Hilfe wegen unglaubwürdiger Webstatistik

Verfasst: 31.03.2010, 10:05
von Denkmal
Liebe Gemeinde ich brauche Euren Rat!

Gleich vorweg: Wir hängen mit der Homepage unserer Firma an einem großen Rechenzentrum, so dass wir keine Möglichkeiten haben die Webstatistik zu konfigurieren.

In den letzten zehn Jahren hatte uns das RZ Webalizer (zuletzt 2.01) zur Verfügung gestellt. Seit ein paar Monaten haben wir zusätzliche Auswertungsmöglichen über ein Tool (Eigenentwicklung des RZ), das auf jeder Seite ein bischen Javacode einbaut und dann auswertet. Die Grundlage der Datenerhebung ist also unterschiedlich.

Im Ergebnis haben wir jetzt sehr deutlich abweichende Zahlen bei Besuchern und Seitenaufrufen. Aufs Ganze gesehen beträgt die Abweichung ca. ein Drittel. Im Detail sind die Abweichungen zum Teil deutlich höher.

Das RZ sagt uns, der Webalizer wäre noch nie genau gewesen und wir sollen voll auf die neue Lösung mit Java bauen. Ist die Argumentation des RZs richtig?

Ich danke für Euren fachlichen Rat und wünsche Frohe Ostern

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Verfasst: 31.03.2010, 10:17
von vodomohua
Solche Daten sind immer sehr schwer zu vergleichen. Manche zählen wiederkehrende Besucher mit der gleichen IP doppelt, andere nur jede Stunde oder Tag.
Um genau zu schauen bräuchte mal wohl die Original Logs und die für einen Zeitraum mit den Statistiken vergleichen.

Verfasst: 31.03.2010, 14:48
von mic_jan
Also mit Java meinst du wahrscheinlich Javascript. Der Nachteil von Webalizer: Auch wenn man ihn noch so gut konfiguriert, zählt der trotzdem ganz viele Bots mit.

Mich wundert, dass der Unterschied nur ein Drittel ist, meistens ist der noch viel größer.

Gruß,

Michael

Verfasst: 31.03.2010, 14:53
von Lord Pixel
Lösungen mit Javascript sind insofern besser, dass die meisten Bots nicht erfasst werden und damit nicht die Besucherstatistiken verfälschen. So viele Bots wie heutzutage das Web durchforsten, kann das schon einiges ausmachen. Hinzu kommt natürlich ein (marginaler) Anteil an Besuchern, die Javascript deaktiviert haben oder gezielt bestimmte Webanalyse-Scripts von großen Anbietern blockieren.

Verfasst: 01.04.2010, 07:31
von Denkmal
Danke für die Hilfe!

Dann werde ich mal wohl besser den neuen Zahlen glauben.

Schöne Feiertage
Alex

Verfasst: 01.04.2010, 09:39
von Mork vom Ork
Denkmal hat geschrieben:Dann werde ich mal wohl besser den neuen Zahlen glauben.
Glaube keiner Statistik, die du nicht selbst gefälscht hast.