Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

1 GB pro Tag Traffic ... ist das "normal"?

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
fred_bacher34
PostRank 9
PostRank 9
Beiträge: 1332
Registriert: 30.03.2006, 08:41

Beitrag von fred_bacher34 » 11.08.2006, 09:58

Hallo Profis,

ich habe derzeit ca. 400 echte Besucher am Tag aber ein Transfervolumen von ca. 1,2 GB pro Tag.

Die häufigste Seite heute ist "presents4friends.com/...dynamic..." mit ca. 6800 Zugriffen wovon die Seite ca. 3500 als Fehlseite in den Logs auftaucht.

Ich vermute, dass eine oder mehrere Suchmaschinen den Trafic verursachen.

Habt ihr eine Idee, wo der Fehler, wenn es denn einer ist, liegen kann?

Hier noch eine kleine Ergänzung der "Besucher":

1 Yahoo Robot 241 65.85%
2 MSN Robot 59 16.12%
3 Internet Explorer 35 9.56%
4 Mozilla 23 6.28%
5 Google Robot 4 1.09%
6 Netscape 4 1.09%

Normalerweise ist yahoo (ca. 500) täglich der "Spitzenreiter" und nimmt mit Abstand weniger Seiten gegen google (ca. 50.000) in den Index auf.

Ich hoffe, ihr könnt mir einen Tipp geben. Ich mag ungern monatlich den Tarif anheben. Denn mit 30 GB komme ich diesen Monat nicht mehr aus.

Danke + Gruß
Uwe
Zuletzt geändert von fred_bacher34 am 11.08.2006, 13:33, insgesamt 1-mal geändert.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

ralph12345
PostRank 5
PostRank 5
Beiträge: 331
Registriert: 13.06.2006, 12:15
Wohnort: Hamburg

Beitrag von ralph12345 » 11.08.2006, 10:09

Sperr Yahoo aus, nutzt eh keiner.
Homöopathie
Linktausch welcome

oldInternetUser
PostRank 9
PostRank 9
Beiträge: 1250
Registriert: 19.03.2005, 12:52

Beitrag von oldInternetUser » 11.08.2006, 10:13

Da scheint mir zuallererst die Statistik fehlerhaft zu sein.

Ob Yahoo jetzt 241 oder 500 Hits pro Tag erzeugt, ist eigentlich irrelevant - das ist kein Traffic im GB-Bereich.

Entweder sind die Seiten abenteuerlich groß oder der Traffic kommt von Bildern.

Und die Fehlerseite sollte natürlich gänzlich verschwinden.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


ole1210
PostRank 10
PostRank 10
Beiträge: 7464
Registriert: 12.08.2005, 10:40
Wohnort: Olpe

Beitrag von ole1210 » 11.08.2006, 10:14

400 User, 1,2 GB ....das entspricht ca. 3 MB / User.

Wieveiel PIs verursacht nen USer? Wenn die deien seite so interessant finden, das immer direkt 30 Seiten angesehen werden. Dann noch die Bots dabei. Evtl. Hotlinking? Kann schon hinkommen.

Aussperren würde ich yahoo ganz sicer nicht!

depp ich
PostRank 9
PostRank 9
Beiträge: 1508
Registriert: 06.12.2004, 12:59

Beitrag von depp ich » 11.08.2006, 10:15

Vielleicht solltest du mal die Session-Ids rausnehmen. Dann hättest du auch ein paar Seiten weniger zu spidern.

kill_bill
PostRank 8
PostRank 8
Beiträge: 882
Registriert: 07.07.2005, 00:31
Wohnort: Meppen

Beitrag von kill_bill » 11.08.2006, 10:44

Ausserdem kannst Du die Seiten komprimiert weitergeben, was eine nicht unerhebliche Trafficeinsparung und eine beschleunigte Seitenübertragung zur Folge hat.
(Stichwort "ob_gzhandler")

Vielleicht würde es auch etwas bringen, wenn Du Deine Thumbnails in der richtigen Größe abspeicherst und nicht einfach per HTML runterskallierst.

fred_bacher34
PostRank 9
PostRank 9
Beiträge: 1332
Registriert: 30.03.2006, 08:41

Beitrag von fred_bacher34 » 11.08.2006, 11:02

Hallo oldInternetUser,

ich denke, der yahoo-bot kommt ca. 500 mal am Tag vorbei. Es waren auch schon bis 15.000 mal am Tag und durchsucht je eine gewisse anzahl an Seiten und URL's. Yahoo scheint Probleme mit unseren Seiten zu haben. Pro Besuch werden doch sicher mehrere Seiten gespidert oder?

Ich hatte mal ca. 6.000 Seiten im yahoo-Index. Jetzt sind es nur noch ca. 500. Ich weiß, warum sind es so viele Seiten. :-) Bei 400 Ideen sind es schon mal 800 Seiten (Voransicht und Detailansicht) und die Masse kommt durch die unterschiedlichen Kategorien, mit den jeweiligen unterschiedlichen Anzeige und Sortierfunktionen. Macht aus Suchmaschinensicht vielleicht keinen Sinn aber die Besucher sollen diese Funktionen nutzen können. :-) Ob es einer der Mehrwerte gegenüber anderen Geschenekseiten ist wird sich zeigen. Noch sind wir ja Neulinge mit 400 echten Besuchern pro Tag nach nicht einmal 4 Monaten online sein.

Ansich habe ich kaum Fehlerseiten aber die oben beschriebene ist die Ursache. Leider zeigt 1und1 nicht genau, wie die URL ist.

Die Bilder sind im Schnitt 8 KByte groß. Es gibt nur ca. 15 Bilder die zwischen 15 und 50 KByte groß sind. Größer Bilder haben wir nicht. Die Seiten sind auch nicht all zu groß. Die Startseite inkl. aller Steuerseiten sind zusammen ca. 35 KB.

@ole1210

Eigentlich 4 oder 5. Zwischen 10 und 11 waren es heute 90 Seiten pro Besucher. Klingt sehr nach Suchmaschine. Die Besucher pro h waren dagegen wieder gleich. Ca. 40 / h.

Ja, ich möchte lieber die Ursache finden und das Problem lösen und nicht Yahoo aussperren.

Was meinst du mit Hotlinking?

@kill_bill
Die Bilder haben alle die "korrekte" Größe, wie die auch angezeigt werden. Alle 150 Pixel breit. Lediglich auf der Startseite werden sie runterskalliert.

Das "ob_gzhandler" schaue ich mir mal an. Danke schon einmal!

oldInternetUser hat geschrieben:Da scheint mir zuallererst die Statistik fehlerhaft zu sein.

Ob Yahoo jetzt 241 oder 500 Hits pro Tag erzeugt, ist eigentlich irrelevant - das ist kein Traffic im GB-Bereich.

Entweder sind die Seiten abenteuerlich groß oder der Traffic kommt von Bildern.

Und die Fehlerseite sollte natürlich gänzlich verschwinden.

Kralle
PostRank 10
PostRank 10
Beiträge: 2925
Registriert: 08.04.2005, 00:47
Wohnort: Deggingen

Beitrag von Kralle » 11.08.2006, 11:17

presents4friends hat geschrieben:Leider zeigt 1und1 nicht genau, wie die URL ist.
Du hast bei 1und1 auch Zugriff auf die Logfiles. Mußt dann halt auswerten.
presents4friends hat geschrieben:Was meinst du mit Hotlinking?
Wenn andere deine Bilder auf ihren Seiten einbinden.

Ansonsten würd ich vielleicht wirklich versuchen die SessionIDs rauszukriegen, evtl. frißt sich da ein Bot gerade zu Tode, weil er jedesmal ne für ihn neue Seite präsentiert kriegt. Der Rückfall bei Yahoo könnte drauf hindeuten, daß einige Seiten wg. DC rausgeflogen sind.

Pompom
PostRank 10
PostRank 10
Beiträge: 3751
Registriert: 10.09.2004, 16:38

Beitrag von Pompom » 11.08.2006, 11:55

Durchschnittlich haben deine Seiten 75 kB Daten.
400 User pro Tag mal ca. 6 Seiten = 2400 Seitenabrufe * 75 kB = ca. 180 MByte.
Unter der Annahme, dass dies User "richtige" User sind:
3 Internet Explorer 35 9.56%
4 Mozilla 23 6.28%
6 Netscape 4 1.09%
hast du ca. 16,93% menschliche Besucher.
Unter der Annahme, dass die Robots (83,07% der Zugriffe) genauso grosse Seiten abrufen, kommst du unter den oberen Annahmen auf ca. 1,06 GByte.

Scheint also noch im grünen Bereich zu liegen.

ole1210
PostRank 10
PostRank 10
Beiträge: 7464
Registriert: 12.08.2005, 10:40
Wohnort: Olpe

Beitrag von ole1210 » 11.08.2006, 11:59

Allerdings darf sich jemand der mit 300 Produkte 49.000 Seite oder so generiert auch nicht beschweren wenn die Robots soviel Traffic verursachen.

Wenn du es einfach bei 1000 Seiten belassen würdest, dann hättest du diese Probleme nicht!

fred_bacher34
PostRank 9
PostRank 9
Beiträge: 1332
Registriert: 30.03.2006, 08:41

Beitrag von fred_bacher34 » 11.08.2006, 12:12

Hallo Pompom,

klingt logisch.

Wie hast du die durchschnittliche Seitengröße ermittelt?

Wenn ich die 20 Bilder * 9 K hochrechne, habe ich gar 180 KB + Quellcode macht schon über 200 KB.

Vielleicht sollte ich die max. Anzahl der Ideen / Seite wieder auf 10 setzen.

Danke @all
Uwe
Pompom hat geschrieben:Durchschnittlich haben deine Seiten 75 kB Daten.
400 User pro Tag mal ca. 6 Seiten = 2400 Seitenabrufe * 75 kB = ca. 180 MByte.
Unter der Annahme, dass dies User "richtige" User sind:
3 Internet Explorer 35 9.56%
4 Mozilla 23 6.28%
6 Netscape 4 1.09%
hast du ca. 16,93% menschliche Besucher.
Unter der Annahme, dass die Robots (83,07% der Zugriffe) genauso grosse Seiten abrufen, kommst du unter den oberen Annahmen auf ca. 1,06 GByte.

Scheint also noch im grünen Bereich zu liegen.

kill_bill
PostRank 8
PostRank 8
Beiträge: 882
Registriert: 07.07.2005, 00:31
Wohnort: Meppen

Beitrag von kill_bill » 11.08.2006, 12:23

presents4friends hat geschrieben: Wenn ich die 20 Bilder * 9 K hochrechne, habe ich gar 180 KB + Quellcode macht schon über 200 KB.
Allerdings betrachten die Suchmaschinen keine Bilder.

fred_bacher34
PostRank 9
PostRank 9
Beiträge: 1332
Registriert: 30.03.2006, 08:41

Beitrag von fred_bacher34 » 11.08.2006, 12:48

Hallo Ole,

ich beschwere mich doch nicht. :-)

Ich möchte lediglich leicht lösbare Fehler vermeiden ohne die Funktionalität einschränken zu müsse.

Es geht schlecht, wenn man mit 300 produkten nur 1000 Seiten erstellt, kann man gerade mal alle Ideen in 10 oder 20er Blöcken mit einer jeweiligen Vorschau auflisten + je Produkt noch eine Seite dazu.

Der Mehrwert sich die Ideen je nach Belieben anzeigen zu lassen wäre nicht möglich. Ob es letztendlich sinnvoll ist, was wir uns ausgedacht haben oder nicht, wird sich in einem Jahr zeigen. Aber mit der derzeitigen Entwicklung der Besucherzahlen sowie dem Feedback bin ich mehr als zufrieden. Somit kann es nicht sooo schlecht sein.

Unabhängig davon kommen von uns und den Besucher fast täglich Ideen hinzu. Wenn wir betrachten, dass in 4 Monaten über 350 Ideen zusammen gekommen sind, dann sind es in 2-3 Jahren sicher 2.000 bis 3.000. Die unbeliebten verschwinden halt im Nirwana aber jeder hat die Chance, gute Ideen vorzuschlagen.

Wenn ich dafür 10 oder 20 Euro mehr bezahlen tut mir das nicht weh.

Es ist nur ein Hobby neben meinem IT-Job und ich möchte einfach sehen, ob meine Ideen zu verwirklichen sind und so ankommen, wie ich es vermute. :-)

Viele Grüße
Uwe
ole1210 hat geschrieben:Allerdings darf sich jemand der mit 300 Produkte 49.000 Seite oder so generiert auch nicht beschweren wenn die Robots soviel Traffic verursachen.

Wenn du es einfach bei 1000 Seiten belassen würdest, dann hättest du diese Probleme nicht!

ole1210
PostRank 10
PostRank 10
Beiträge: 7464
Registriert: 12.08.2005, 10:40
Wohnort: Olpe

Beitrag von ole1210 » 11.08.2006, 12:48

@ kill_bill

Ich denke schon! Die Bilder werden ja auch in den Index aufgenommen. Um das zu tun muss die Suchmaschine aber wissen ob das Bild nur im Quelltext angegeben ist oder ob es auch nen korrekten 200 zurück gibt. Also wird das Bild mal eben aufgerufen!

fred_bacher34
PostRank 9
PostRank 9
Beiträge: 1332
Registriert: 30.03.2006, 08:41

Beitrag von fred_bacher34 » 11.08.2006, 12:52

Somit kommen dank yahoo doch 1,2 GB zusammen. :-) Also, ist ein Update auf ein 50 GB Paket nicht zu vermeiden.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag