Seite 1 von 2

1 GB pro Tag Traffic ... ist das "normal"?

Verfasst: 11.08.2006, 09:58
von fred_bacher34
Hallo Profis,

ich habe derzeit ca. 400 echte Besucher am Tag aber ein Transfervolumen von ca. 1,2 GB pro Tag.

Die häufigste Seite heute ist "presents4friends.com/...dynamic..." mit ca. 6800 Zugriffen wovon die Seite ca. 3500 als Fehlseite in den Logs auftaucht.

Ich vermute, dass eine oder mehrere Suchmaschinen den Trafic verursachen.

Habt ihr eine Idee, wo der Fehler, wenn es denn einer ist, liegen kann?

Hier noch eine kleine Ergänzung der "Besucher":

1 Yahoo Robot 241 65.85%
2 MSN Robot 59 16.12%
3 Internet Explorer 35 9.56%
4 Mozilla 23 6.28%
5 Google Robot 4 1.09%
6 Netscape 4 1.09%

Normalerweise ist yahoo (ca. 500) täglich der "Spitzenreiter" und nimmt mit Abstand weniger Seiten gegen google (ca. 50.000) in den Index auf.

Ich hoffe, ihr könnt mir einen Tipp geben. Ich mag ungern monatlich den Tarif anheben. Denn mit 30 GB komme ich diesen Monat nicht mehr aus.

Danke + Gruß
Uwe

Verfasst:
von

Verfasst: 11.08.2006, 10:09
von ralph12345
Sperr Yahoo aus, nutzt eh keiner.

Verfasst: 11.08.2006, 10:13
von oldInternetUser
Da scheint mir zuallererst die Statistik fehlerhaft zu sein.

Ob Yahoo jetzt 241 oder 500 Hits pro Tag erzeugt, ist eigentlich irrelevant - das ist kein Traffic im GB-Bereich.

Entweder sind die Seiten abenteuerlich groß oder der Traffic kommt von Bildern.

Und die Fehlerseite sollte natürlich gänzlich verschwinden.

Verfasst:
von

Verfasst: 11.08.2006, 10:14
von ole1210
400 User, 1,2 GB ....das entspricht ca. 3 MB / User.

Wieveiel PIs verursacht nen USer? Wenn die deien seite so interessant finden, das immer direkt 30 Seiten angesehen werden. Dann noch die Bots dabei. Evtl. Hotlinking? Kann schon hinkommen.

Aussperren würde ich yahoo ganz sicer nicht!

Verfasst: 11.08.2006, 10:15
von depp ich
Vielleicht solltest du mal die Session-Ids rausnehmen. Dann hättest du auch ein paar Seiten weniger zu spidern.

Verfasst: 11.08.2006, 10:44
von kill_bill
Ausserdem kannst Du die Seiten komprimiert weitergeben, was eine nicht unerhebliche Trafficeinsparung und eine beschleunigte Seitenübertragung zur Folge hat.
(Stichwort "ob_gzhandler")

Vielleicht würde es auch etwas bringen, wenn Du Deine Thumbnails in der richtigen Größe abspeicherst und nicht einfach per HTML runterskallierst.

Verfasst: 11.08.2006, 11:02
von fred_bacher34
Hallo oldInternetUser,

ich denke, der yahoo-bot kommt ca. 500 mal am Tag vorbei. Es waren auch schon bis 15.000 mal am Tag und durchsucht je eine gewisse anzahl an Seiten und URL's. Yahoo scheint Probleme mit unseren Seiten zu haben. Pro Besuch werden doch sicher mehrere Seiten gespidert oder?

Ich hatte mal ca. 6.000 Seiten im yahoo-Index. Jetzt sind es nur noch ca. 500. Ich weiß, warum sind es so viele Seiten. :-) Bei 400 Ideen sind es schon mal 800 Seiten (Voransicht und Detailansicht) und die Masse kommt durch die unterschiedlichen Kategorien, mit den jeweiligen unterschiedlichen Anzeige und Sortierfunktionen. Macht aus Suchmaschinensicht vielleicht keinen Sinn aber die Besucher sollen diese Funktionen nutzen können. :-) Ob es einer der Mehrwerte gegenüber anderen Geschenekseiten ist wird sich zeigen. Noch sind wir ja Neulinge mit 400 echten Besuchern pro Tag nach nicht einmal 4 Monaten online sein.

Ansich habe ich kaum Fehlerseiten aber die oben beschriebene ist die Ursache. Leider zeigt 1und1 nicht genau, wie die URL ist.

Die Bilder sind im Schnitt 8 KByte groß. Es gibt nur ca. 15 Bilder die zwischen 15 und 50 KByte groß sind. Größer Bilder haben wir nicht. Die Seiten sind auch nicht all zu groß. Die Startseite inkl. aller Steuerseiten sind zusammen ca. 35 KB.

@ole1210

Eigentlich 4 oder 5. Zwischen 10 und 11 waren es heute 90 Seiten pro Besucher. Klingt sehr nach Suchmaschine. Die Besucher pro h waren dagegen wieder gleich. Ca. 40 / h.

Ja, ich möchte lieber die Ursache finden und das Problem lösen und nicht Yahoo aussperren.

Was meinst du mit Hotlinking?

@kill_bill
Die Bilder haben alle die "korrekte" Größe, wie die auch angezeigt werden. Alle 150 Pixel breit. Lediglich auf der Startseite werden sie runterskalliert.

Das "ob_gzhandler" schaue ich mir mal an. Danke schon einmal!

oldInternetUser hat geschrieben:Da scheint mir zuallererst die Statistik fehlerhaft zu sein.

Ob Yahoo jetzt 241 oder 500 Hits pro Tag erzeugt, ist eigentlich irrelevant - das ist kein Traffic im GB-Bereich.

Entweder sind die Seiten abenteuerlich groß oder der Traffic kommt von Bildern.

Und die Fehlerseite sollte natürlich gänzlich verschwinden.

Verfasst: 11.08.2006, 11:17
von Kralle
presents4friends hat geschrieben:Leider zeigt 1und1 nicht genau, wie die URL ist.
Du hast bei 1und1 auch Zugriff auf die Logfiles. Mußt dann halt auswerten.
presents4friends hat geschrieben:Was meinst du mit Hotlinking?
Wenn andere deine Bilder auf ihren Seiten einbinden.

Ansonsten würd ich vielleicht wirklich versuchen die SessionIDs rauszukriegen, evtl. frißt sich da ein Bot gerade zu Tode, weil er jedesmal ne für ihn neue Seite präsentiert kriegt. Der Rückfall bei Yahoo könnte drauf hindeuten, daß einige Seiten wg. DC rausgeflogen sind.

Verfasst: 11.08.2006, 11:55
von Pompom
Durchschnittlich haben deine Seiten 75 kB Daten.
400 User pro Tag mal ca. 6 Seiten = 2400 Seitenabrufe * 75 kB = ca. 180 MByte.
Unter der Annahme, dass dies User "richtige" User sind:
3 Internet Explorer 35 9.56%
4 Mozilla 23 6.28%
6 Netscape 4 1.09%
hast du ca. 16,93% menschliche Besucher.
Unter der Annahme, dass die Robots (83,07% der Zugriffe) genauso grosse Seiten abrufen, kommst du unter den oberen Annahmen auf ca. 1,06 GByte.

Scheint also noch im grünen Bereich zu liegen.

Verfasst: 11.08.2006, 11:59
von ole1210
Allerdings darf sich jemand der mit 300 Produkte 49.000 Seite oder so generiert auch nicht beschweren wenn die Robots soviel Traffic verursachen.

Wenn du es einfach bei 1000 Seiten belassen würdest, dann hättest du diese Probleme nicht!

Verfasst: 11.08.2006, 12:12
von fred_bacher34
Hallo Pompom,

klingt logisch.

Wie hast du die durchschnittliche Seitengröße ermittelt?

Wenn ich die 20 Bilder * 9 K hochrechne, habe ich gar 180 KB + Quellcode macht schon über 200 KB.

Vielleicht sollte ich die max. Anzahl der Ideen / Seite wieder auf 10 setzen.

Danke @all
Uwe
Pompom hat geschrieben:Durchschnittlich haben deine Seiten 75 kB Daten.
400 User pro Tag mal ca. 6 Seiten = 2400 Seitenabrufe * 75 kB = ca. 180 MByte.
Unter der Annahme, dass dies User "richtige" User sind:
3 Internet Explorer 35 9.56%
4 Mozilla 23 6.28%
6 Netscape 4 1.09%
hast du ca. 16,93% menschliche Besucher.
Unter der Annahme, dass die Robots (83,07% der Zugriffe) genauso grosse Seiten abrufen, kommst du unter den oberen Annahmen auf ca. 1,06 GByte.

Scheint also noch im grünen Bereich zu liegen.

Verfasst: 11.08.2006, 12:23
von kill_bill
presents4friends hat geschrieben: Wenn ich die 20 Bilder * 9 K hochrechne, habe ich gar 180 KB + Quellcode macht schon über 200 KB.
Allerdings betrachten die Suchmaschinen keine Bilder.

Verfasst: 11.08.2006, 12:48
von fred_bacher34
Hallo Ole,

ich beschwere mich doch nicht. :-)

Ich möchte lediglich leicht lösbare Fehler vermeiden ohne die Funktionalität einschränken zu müsse.

Es geht schlecht, wenn man mit 300 produkten nur 1000 Seiten erstellt, kann man gerade mal alle Ideen in 10 oder 20er Blöcken mit einer jeweiligen Vorschau auflisten + je Produkt noch eine Seite dazu.

Der Mehrwert sich die Ideen je nach Belieben anzeigen zu lassen wäre nicht möglich. Ob es letztendlich sinnvoll ist, was wir uns ausgedacht haben oder nicht, wird sich in einem Jahr zeigen. Aber mit der derzeitigen Entwicklung der Besucherzahlen sowie dem Feedback bin ich mehr als zufrieden. Somit kann es nicht sooo schlecht sein.

Unabhängig davon kommen von uns und den Besucher fast täglich Ideen hinzu. Wenn wir betrachten, dass in 4 Monaten über 350 Ideen zusammen gekommen sind, dann sind es in 2-3 Jahren sicher 2.000 bis 3.000. Die unbeliebten verschwinden halt im Nirwana aber jeder hat die Chance, gute Ideen vorzuschlagen.

Wenn ich dafür 10 oder 20 Euro mehr bezahlen tut mir das nicht weh.

Es ist nur ein Hobby neben meinem IT-Job und ich möchte einfach sehen, ob meine Ideen zu verwirklichen sind und so ankommen, wie ich es vermute. :-)

Viele Grüße
Uwe
ole1210 hat geschrieben:Allerdings darf sich jemand der mit 300 Produkte 49.000 Seite oder so generiert auch nicht beschweren wenn die Robots soviel Traffic verursachen.

Wenn du es einfach bei 1000 Seiten belassen würdest, dann hättest du diese Probleme nicht!

Verfasst: 11.08.2006, 12:48
von ole1210
@ kill_bill

Ich denke schon! Die Bilder werden ja auch in den Index aufgenommen. Um das zu tun muss die Suchmaschine aber wissen ob das Bild nur im Quelltext angegeben ist oder ob es auch nen korrekten 200 zurück gibt. Also wird das Bild mal eben aufgerufen!

Verfasst: 11.08.2006, 12:52
von fred_bacher34
Somit kommen dank yahoo doch 1,2 GB zusammen. :-) Also, ist ein Update auf ein 50 GB Paket nicht zu vermeiden.