Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Suchmaschinen greifen mich an ...

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
turgay
PostRank 4
PostRank 4
Beiträge: 196
Registriert: 02.04.2005, 01:17

Beitrag von turgay » 17.04.2005, 22:07

hallo und guten tag/abend,

ich habe mein board (erfolgreich) auf "sprechende" URLs umstellen können. danach, voller stolz, will ich mir die getane arbeit ansehen und was muss ich feststellen: "Insgesamt sind 427 Benutzer online" wie bitte?? und das wird immer mehr, als ob die strategen nur darauf gewartet hätten, kommen sie jetzt aus ihren löchern hervorgekrochen. ist das normal, hat jemand anderes auch schon so einen angriff erlebt?
die biester kommen alle aus der 68.142.*.* - ecke!


verwirrte grüße

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Luckybuy3000
PostRank 7
PostRank 7
Beiträge: 543
Registriert: 07.11.2003, 08:49
Wohnort: Essen

Beitrag von Luckybuy3000 » 17.04.2005, 22:20

Nein, auf so einen Ansturm warte ich bis heute. Mein Forum würde sich freuen über so viele Besucher. :lol:

Da hilft dann nur die Auswertung der Logfiles und evtl. Ergänzung der robots.txt bzw. htaccess.

Jojo
PostRank 9
PostRank 9
Beiträge: 2847
Registriert: 19.03.2004, 10:33
Wohnort: Papenburg

Beitrag von Jojo » 17.04.2005, 22:23

Naja, das kommt ganz drauf an. Mein Forum zeigt die Anzahl der Nutzer der letzten 15 Minuten an. Der kann maximal bei 10 sein, wurde durch Google aber auf über 300 getrieben. Da fehlt einfach ein Ausschluß des Googlebots bei der Berechnung.

Luckybuy3000
PostRank 7
PostRank 7
Beiträge: 543
Registriert: 07.11.2003, 08:49
Wohnort: Essen

Beitrag von Luckybuy3000 » 17.04.2005, 22:27

Ich denke mal, das das Forum oben mehr oder weniger gut optimiert ist. Auch wenn die Sitemap nicht so toll ist. Aber session ids und das Verzeichnis wo das Forum untergebracht ist, sind eben auch ein entscheidener Faktor.
Zuletzt geändert von Luckybuy3000 am 17.04.2005, 22:32, insgesamt 1-mal geändert.

turgay
PostRank 4
PostRank 4
Beiträge: 196
Registriert: 02.04.2005, 01:17

Beitrag von turgay » 17.04.2005, 22:30

Luckybuy3000 hat geschrieben: Auch wenn die Sitemap nicht so toll ist. Aber session ids sind eben auch ein entscheidener Faktor.
die site-map ist noch ein relikt aus der suboptimierten zeit, fliegt natürlich bei der nächstbesten gelegenheit raus. session-IDs sollten bei unregistrierten besuchern eigentlich nicht mehr angehängt werden.

viele grüße

Remo Uherek
PostRank 3
PostRank 3
Beiträge: 85
Registriert: 07.10.2004, 20:00

Beitrag von Remo Uherek » 17.04.2005, 22:38

Das ist nicht ganz aussergewöhnlich. Wenn der Webserver eine gute Performance aufweist, dann möchten die Suchmaschinen gleich die ganze Präsenz spidern. Und da .de-Domains derzeit relativ fix gespidert werden, ist das eigentlich nichts Aussergewöhnliches. Hatten wir früher auf .ch regelmässig. Derzeit haben wir unsere Hauptpräsenzen auf .com und hier gehts nicht mehr ganz so wild zu und her. Ich gehe davon aus, dass es auch mit der aktuellen Spider-Auslastung zusammenhängt.

Gruss, Remo

turgay
PostRank 4
PostRank 4
Beiträge: 196
Registriert: 02.04.2005, 01:17

Beitrag von turgay » 17.04.2005, 22:45

Jojo hat geschrieben:Da fehlt einfach ein Ausschluß des Googlebots bei der Berechnung.

gibt es dafür einen trick, den ich hier erfahren kann, oder sollte ich das besser an der zuständigen stelle erfragen?

viele grüße

Hasso
PostRank 9
PostRank 9
Beiträge: 2107
Registriert: 12.01.2004, 13:18

Beitrag von Hasso » 18.04.2005, 01:51

@turgay

Ich würde sagen, schau Dir die Scripte/Serverkonfigurationen noch genauer an. Hier und da stimmt noch nicht ganz.

Insbesondere sessions.php - Line : 169

Was Dein Problem betrifft, kann hier nichts Genaueres gesagt werden ohne sich die ServerLogfiles zu sehen bekommen.

Man könnte eventuell auch die Serverbelastung mithilfe von speziellen Tools simulieren um das Ganze zu testen...

Grüsse
Hasso

BSweet
PostRank 4
PostRank 4
Beiträge: 185
Registriert: 25.03.2005, 15:45

Beitrag von BSweet » 18.04.2005, 08:38

turgay hat geschrieben:
Jojo hat geschrieben:Da fehlt einfach ein Ausschluß des Googlebots bei der Berechnung.

gibt es dafür einen trick, den ich hier erfahren kann, oder sollte ich das besser an der zuständigen stelle erfragen?

viele grüße
robots.txt?

marc75
PostRank 9
PostRank 9
Beiträge: 1916
Registriert: 06.10.2004, 09:36

Beitrag von marc75 » 18.04.2005, 09:25

BSweet hat geschrieben:
turgay hat geschrieben:
Jojo hat geschrieben:Da fehlt einfach ein Ausschluß des Googlebots bei der Berechnung.

gibt es dafür einen trick, den ich hier erfahren kann, oder sollte ich das besser an der zuständigen stelle erfragen?

viele grüße
robots.txt?
wozu? um die Sumas wieder auszusperren, dann hätte er sich ja die Arbeit sparen können.


@turgay
einfach per if() prüfen ob es zum Beispiel googlebot ist (HTTP_USER_AGENT), wenn ja, dann halt keinen Eintrag in die Useronline Tabelle vornehmen.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag