Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Klickhäufigkeitsverteilung

Alles zum Thema Google Adwords & Yahoo! / Microsoft adCenter / Bing Ads und Facebook Ads
Herbert
PostRank 6
PostRank 6
Beiträge: 480
Registriert: 30.06.2003, 14:56

Beitrag von Herbert » 11.08.2003, 20:37

wie stelle ich es denn an, aus dem serverlog herauszufiltern, welche IP, welcher host oder zumindest welche domain bei mir war (evtl. zu bestimmten zeitpunkten) für eine bestimmte dauer? hat jemand ein auswerte-tool? excel-sheet? arbeite ja schon mit mescalero professional, aber evtl. gibts was einfacheres, das diese frage löst.... :roll:

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Herbert
PostRank 6
PostRank 6
Beiträge: 480
Registriert: 30.06.2003, 14:56

Beitrag von Herbert » 12.08.2003, 23:39

.oOps! kann keiner sowas? Wo sind die statistik-freaks denn nur?
:roll:

bugscout
PostRank 9
PostRank 9
Beiträge: 2602
Registriert: 23.06.2003, 12:24

Beitrag von bugscout » 12.08.2003, 23:47

moin herbert,

wenn ich eine bestimmte ip, host oder was weiss ich was will, nehme ich den texteditor und schaue nach, kommt aber selten vor.

für allgemeinen auswertungen, wichtigsten ips, hosts, verweildauer der kunden ( n% kunden x minuten, n% kunden x seiten angeklickt ) gibt es z.b. webtrends.

grüsse

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Herbert
PostRank 6
PostRank 6
Beiträge: 480
Registriert: 30.06.2003, 14:56

Beitrag von Herbert » 13.08.2003, 15:19

Nee, habe doch schon Mescalero im Einsatz ;)
wollte aber mal manuell die sache angehen, habe deshalb die logs in excel importiert und dort nach IP sortiert...
nun wäre es schön, wenn man ein fertiges excel-sheet hätte, welches auf klick ein bestimmtes datum anzeigt, eine liste macht mit den zeiten, die die IP auf der site verweilt hat usw.
kann man aber in mescalero machen, mit den filterfunktionen, habe ich inzwischen gesehen (lern ja noch, gell;)...

was mich interessiert, ist nun eine erklärung eines logfiles....wie dieses z.B.:

a) pxxxyyy.dip.t-dialin.net - - [19/Aug/2003:12:11:22 +0200] "GET /wirselbst/picshome/linetitle.gif HTTP/1.1" 200 483 "https://www.deinedomain.de/wirselbst/home.htm" "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0)" "www.deinedomain.de"

-was meint GET? zugriff auf die nachfolgenden files?
-was ist 200 483? error-codes, und 200=OK? 483=?

b) pxxxyyy.dip.t-dialin.net - - [27/Mai/2003:11:58:03 +0100] "GET /homeDeinedomain02222.jpg HTTP/1.1" 304 - "https://www.Deinedomain.de/homeDeinedomain03333.htm" "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0)" "www.meinedomain.de"

Was bedeutet hier bei b) die Vermischung von Deinedomain und Meinedomain im Logfile?

c) Wie ist das dann, wenn solche logzeilen also mehrfach auftauchen, immer von der gleichen IP, und der gesamtzeitraum dieser IP-zugriffe (und zwar auf alle elemente/files der site!) liegt bei etwa 10 sek.?

Es geht also darum, herauszufiltern, wie lange eine IP auf der site genau war, wo man das ablesen kann usw. Mit dem proggi IP-Locator kannst dann schnell die Identität der IP finden....
damit will ich mal generell feststellen, ob es zugriffe und von wem in welchem zeitraum auf eine site gab, die nur dazu da waren, die klickrate zu erhöhen -geht sowas? und woran erkenne ich, ob es ein normales suchergebnis war, was zum zugriff führte, oder eben nur ein kurzeit-klick nach aufruf der site (evtl. auch via vorherigem suchbegriff)?
(habe noch keine tracking-url eingebaut...)

Herbert
PostRank 6
PostRank 6
Beiträge: 480
Registriert: 30.06.2003, 14:56

Beitrag von Herbert » 17.08.2003, 00:40

Logfile-Auswertung = very special? Hmm...dann muss ich das mal selbst lernen ;)

viggen
PostRank 10
PostRank 10
Beiträge: 6249
Registriert: 12.05.2003, 14:44

Beitrag von viggen » 17.08.2003, 07:03

get ist richtig interpretiert,
200 ist auch richtig =OK

am ende der logfile das "meinedomain.de" ist der name des useragent, manchmal ist das eine domain, manchmal steht AlexaToolbar etc..

c) dann wars wohl ein robot und kein mensch

richtiges beispiel würde mehr helfen, mein dein unsere bezeichnung verwirrt mich ;)

bugscout
PostRank 9
PostRank 9
Beiträge: 2602
Registriert: 23.06.2003, 12:24

Beitrag von bugscout » 17.08.2003, 12:09

moin herbert,

zeit des besuchs kriegt man auch irgendwo raus, hat mich bis jetzt aber noch nicht interessiert. (webtrends zeigt die besuchszeit der besucher an, also stehts auch in den logs). wird was mit eingangs- und ausgangsseite zu tun haben.

die frage ist nur was bringt dir das?

wenn du die ip von jemand hast, der nur 1 sec auf der seite war
kann ja keiner gezwungen werden länger da zu bleiben und was zu kaufen.

bei adwords kanns natürlich teuer werden.

grüsse

Michael B
PostRank 5
PostRank 5
Beiträge: 307
Registriert: 22.07.2003, 17:26
Wohnort: 82008 unterhaching

Beitrag von Michael B » 17.08.2003, 22:09

also ich mache pay per klick sowohl bei google wie auch overture.
bei espottimg habe ich schon lange nicht mehr eingezahlt.

ich denke das die drei alle erlich arbeiten.
haben die garnicht nötig da zu manipulieren.

bei google kann man alles ganz gut auswerten.
2,5% klickrate ist ein wert der auf platz 5 realistisch ist.
weiter oben war ich noch nie.
je weiter hinten desto weniger klicks. logisch!

overture und espoting bringen eigentlich nur bei den ersten drei positionen ordentlich klicks. eine auswertung nach prozenten geht dort soweit ich weiß nicht.

Herbert
PostRank 6
PostRank 6
Beiträge: 480
Registriert: 30.06.2003, 14:56

Beitrag von Herbert » 19.08.2003, 17:52

@bugscout

zitat: "bei adwords kanns natürlich teuer werden."

Siehste! Aber auch bei anderen Ad-Schaltungsformen, die nur einen Klick brauchen....und deswegen :lol:

Halli
PostRank 7
PostRank 7
Beiträge: 584
Registriert: 21.08.2003, 00:40
Wohnort: Hannover

Beitrag von Halli » 21.08.2003, 00:55

Hallo Herbert,

in unserem Informationsportal zu Internet & E-Commerce haben wir uns auch recht ausführlich mit der Logfile Analyse beschäftigt.

Schau am besten mal unter https://www.at-mix.de/pro_logfiles.htm und den Folgeseiten nach. Dort erklären wir auch Log-Formate, Befehlskennungen, Statusmeldungen und Fachbegriffe.

Ich hoffe, der kleine Kurs hilft Dir weiter
wer besoffen noch geradeaus fahren kann ist bald reif fürs www.mpu-forum.de

Herbert
PostRank 6
PostRank 6
Beiträge: 480
Registriert: 30.06.2003, 14:56

Beitrag von Herbert » 21.08.2003, 01:18

Hi Halli,

guter site-aufbau ;)
hier die frage nochmal von oben:

"b) pxxxyyy.dip.t-dialin.net - - [27/Mai/2003:11:58:03 +0100] "GET /homeDeinedomain02222.jpg HTTP/1.1" 304 - "https://www.DEINEdomain.de/homeDeinedomain03333.htm" "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0)" "www.MEINEdomain.de"

Was bedeutet hier bei b) die Vermischung von Deinedomain und Meinedomain im Logfile?

c) Wie ist das dann, wenn solche logzeilen mehrfach auftauchen, immer von der gleichen IP, und der jeweilige zeitraum dieser IP-zugriffe (und zwar auf alle elemente/files der site!) liegt bei max. 10 sek.?

damit will ich mal generell feststellen, ob es zugriffe und von wem in welchem zeitraum auf eine site gab, die nur dazu da waren, die klickrate zu erhöhen -geht sowas? und woran erkenne ich, ob es ein normales suchergebnis war, was zum zugriff führte, oder eben nur ein kurzeit-klick nach aufruf der site (evtl. auch via vorherigem suchbegriff)? (habe noch keine tracking-url eingebaut...)

d) welche logfile-progs kannst du empfehlen aus erfahrung?

Webby
Administrator
Administrator
Beiträge: 5420
Registriert: 17.10.2001, 01:00

Beitrag von Webby » 21.08.2003, 07:54

b) bin keine log datei exyperte aber ich glaube GET /homeDeinedomain02222.jpg ist die datei die von der server geliefert ist und https://www.DEINEdomain.de/homeDeinedomain03333.htm ist die referrer (oder die html seite wo die bild zu finden ist. )
c) entweder eine schneller Surfer oder eine Robot (user agent überprufen)
d) webtrends log analyser / Faststats

Vorschlag:
https://www.extreme-dm.com/tracking/?reg

Live tracking von extreme ist gut. Kostenlos live tracking. Man sollte eine kleine button zeigen dafür. Ist aber eine die besseren.
Beispiel: https://extremetracking.com/open;sum?tag=webbya

Viele log software hat auch eine trial Version.
https://directory.google.com/Top/Comput ... cial/?il=1
ABAKUS Internet Marketing
Professionelle Suchmaschinenoptimierung und Suchmaschinenmarketing

Herbert
PostRank 6
PostRank 6
Beiträge: 480
Registriert: 30.06.2003, 14:56

Beitrag von Herbert » 22.08.2003, 01:57

OK, thx Alan. Denke, jetzt haben wir genug material zum testen ;)

Noki
PostRank 7
PostRank 7
Beiträge: 639
Registriert: 16.05.2003, 22:27
Wohnort: Gernsbach

Beitrag von Noki » 22.08.2003, 11:13

viggen hat geschrieben:62% deines besuchs verschwindet wieder noch bevor die seite volkommen geladen ist?
Das stimmt so nicht! Die Aufenthalsdauer wird anders berechnet - und zwar:

Seite1 -> Klick -> Seite2

Als Aufenthaltsdauer wird die Zeit genommen die der User braucht bis er sich zur nächsten Seite durchgeklickt hat. User mit 0 s Aufenthaltsdauer haben sich also maximal deine Startseite angeschaut und welche mit 10s haben noch einmal geklickt bis sie aufgegeben haben :D !

Halli
PostRank 7
PostRank 7
Beiträge: 584
Registriert: 21.08.2003, 00:40
Wohnort: Hannover

Beitrag von Halli » 25.08.2003, 02:53

ich habe ein Tool ausfindig gemacht (und in unsere Site) eingebaut, von dem ich echt begeistert bin: etracker. Die Gründe dafür sind:

- es ist in deutsch
- gezählt werden nur echte Besucher ohne Spider, Offlinereader etc.
- man erhält eine Klickstatistik für jede einzelne Seite der Homepage
und vor allem:
- wie können live nachsehen, was sich auf unseren Seiten tut und sofort für jeden Besucher ein Tracking der angesurften Seiten ansehen.

Wie das funktioniert? Es werden keine Logfiles ausgewertet, sondern jeweils Skripte auf dem Tracking-Server aufgerufen, die dann die vom Browser übermittelten Daten auswerten.

Einen Link zu unser eigenen Statistik (dem öffentlichen Teil) findet Ihr rechts unten auf der at-mix.de Homepage oder direkt über diesen Link:
www.etracker.de/soverview.php?c=1&name=15942

Das ganze ist zwar nicht kostenlos, aber 1,29 € pro Monat ist echt nicht viel. Falls Ihr den Service auch nutzen wollt benutzt doch für die Anmeldung bitte diesen Link
Zuletzt geändert von Halli am 06.10.2003, 11:14, insgesamt 1-mal geändert.
wer besoffen noch geradeaus fahren kann ist bald reif fürs www.mpu-forum.de

Antworten