Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Google spidert zu schnell - Serverlast zu hoch!

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
SeoBlogger.de
PostRank 4
PostRank 4
Beiträge: 101
Registriert: 09.04.2007, 16:06
Wohnort: Teublitz

Beitrag von SeoBlogger.de » 10.01.2008, 18:43

Ohne alles gelesen zu haben:
ich hab da mal kurz was programmiert und in meinem Blog abgelegt.
Ist eine quick-and-dirty-lösung die wohl den meisten reichen sollte:
https://www.seoblogger.de/310-googlebot ... machen.htm
Bild

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Nuevo Niveau
PostRank 5
PostRank 5
Beiträge: 218
Registriert: 24.01.2007, 09:12
Wohnort: Am liebsten zwischen Proxys

Beitrag von Nuevo Niveau » 10.01.2008, 18:54

SeoBlogger.de hat geschrieben:

Code: Alles auswählen

if (stristr($_SERVER[’HTTP_USER_AGENT’] , “Googlebot”)) sleep(3);
Also, ich bin ja "Teufel an die Wand mal und gleich ausflipp typ" - aber ich würde stark davon abraten, den Googlebot auszubremsen, es soll auch bewiesenermaßen einen Filter geben der "Ladezeit" heißt :)

Überhaupt, was soll der Nippes - wer ernsthaft online Geld verdient, der soll sich gefälligst auch fette Hartware holen, oder?
Mehr IP Pop? Versuch mal Linkvault
oder Receivelinks

SeoBlogger.de
PostRank 4
PostRank 4
Beiträge: 101
Registriert: 09.04.2007, 16:06
Wohnort: Teublitz

Beitrag von SeoBlogger.de » 10.01.2008, 19:03

seh ich genauso, aber wers braucht 8)
Bild

SusanneMelzer
PostRank 2
PostRank 2
Beiträge: 34
Registriert: 08.01.2008, 08:33

Beitrag von SusanneMelzer » 10.01.2008, 22:45

Find ich interessant, dass ich nicht der einzigste bin der so ein Probleme hatte oder hat.

Das Script werde ich morgen mal probieren....mal gucken was er dazu sagt. Er hat heute breits 7000 Seiten gespidert..... :o

Er ist dauerhaft präsent, merkwürdigerweise immer mit der gleichen IP. Es war noch nie ein anderer mit einer anderen IP da.

Fridaynite
PostRank 10
PostRank 10
Beiträge: 2983
Registriert: 07.01.2004, 09:10

Beitrag von Fridaynite » 11.01.2008, 09:26

Ich sag es Dir nochmal: 7000 Seiten am Tag sind lächerlich für JEDEN Server. Das Problem ist Dein Script, nicht der Server. Ein normaler moderner Webserver verträgt locker 1 - 2 Mio Bots am Tag. Nur so zusammengefummelte Scripts wie Pligg oder ähnlicher Schrott versaun die Performance.

Scubi
PostRank 8
PostRank 8
Beiträge: 947
Registriert: 22.08.2003, 19:38

Beitrag von Scubi » 12.01.2008, 03:59

Ich weis ja nicht, wie genau du deine Logs anschaust... aber, bei uns hat bot trap den Server um ca. 60% entlastet.

Gruß Scubi

jr
PostRank 1
PostRank 1
Beiträge: 10
Registriert: 18.10.2004, 01:58
Wohnort: Oldenburg

Beitrag von jr » 12.01.2008, 06:59

7000 Seiten am Tag mögen für einen Server lächerlich sein. 50.000 pro Account beim Shared Hosting sind aber sicher kein Spaß mehr. Vor allem, wenn die Dateiaufrufe keinen Sinn ergeben und scheinbar nur irgendwelche Funktionen abgearbeitet werden, koste es was es wolle.

Ich habe dem Googlebot jetzt vorerst die Luft ganz abgedreht. Es muß nicht sein, daß er zunächst zigtausend mal eine für die Suchergebnisse unsinnige Funktion abruft und dann gleich mit der nächsten weitermacht. Selbst als es nach einigen kleinen Eingriffen 403er und 404er hagelte, gab der Bot sich nicht zufrieden und rief die Dateien unverdrossen und zigtausendfach weiter auf.

Ohne daß ich mich näher mit der Funktionsweise des Bots beschäftigt habe: Wo ist der Sinn, wenn der (oder von mir aus auch ein) Bot plötzlich jeden Tag die gleichen Seiten und damit auch die gleichen Inhalte mehrfach durchsucht? Dadurch gehen ja nicht nur mir Kapazitäten verloren, auch die Google-Leitungen glühen sinnlos.

Jahrelang gab es für mich keinen Anlaß zu Beschwerden, aber in den letzten zwei Wochen wurde das Benehmen des Bots wirklich lästig.

seonewbie
PostRank 9
PostRank 9
Beiträge: 1939
Registriert: 21.10.2006, 20:50

Beitrag von seonewbie » 12.01.2008, 08:10

Hallo,

da ist irgendwas ausserhalb der Reihe. Bei mir hat der
Googlerisch gestern auf einem fetten Doppel Proz
mit Debian stable to many sql connection hin bekommen ...

Das war noch nie ... vielleicht "VFPRU" ... very fast pagerank update :-)

Gruß

Micha
Suche Linktausch zum Thema Mode. Bitte PM
Backlink-Generator | Artikelverzeichnis | PageRank | SEnuke X
Don't smoke, don't fight, don't light no cigarettes,
Or else you'll wind up in the can!
No jokes, no rights, sit tight, don't fool around,
You are a guest of Uncle Sam!
AC/DC "I'll be damned"

seonewbie
PostRank 9
PostRank 9
Beiträge: 1939
Registriert: 21.10.2006, 20:50

Beitrag von seonewbie » 12.01.2008, 08:12

Apropo ... vielleicht der Test Ladezeit als Ranking Kriterium ?

Klingt blöd aber warum sollten die sonst das Vieh scharf
wie einen Höllenhund die Sitemaps unserer Server lesen
lassen.

Gruß

Micha
Suche Linktausch zum Thema Mode. Bitte PM
Backlink-Generator | Artikelverzeichnis | PageRank | SEnuke X
Don't smoke, don't fight, don't light no cigarettes,
Or else you'll wind up in the can!
No jokes, no rights, sit tight, don't fool around,
You are a guest of Uncle Sam!
AC/DC "I'll be damned"

wowglider
PostRank 8
PostRank 8
Beiträge: 809
Registriert: 22.05.2007, 18:00

Beitrag von wowglider » 12.01.2008, 15:05

jr hat geschrieben:7000 Seiten am Tag mögen für einen Server lächerlich sein. 50.000 pro Account beim Shared Hosting sind aber sicher kein Spaß mehr. Vor allem, wenn die Dateiaufrufe keinen Sinn ergeben und scheinbar nur irgendwelche Funktionen abgearbeitet werden, koste es was es wolle.

Ich habe dem Googlebot jetzt vorerst die Luft ganz abgedreht. Es muß nicht sein, daß er zunächst zigtausend mal eine für die Suchergebnisse unsinnige Funktion abruft und dann gleich mit der nächsten weitermacht. Selbst als es nach einigen kleinen Eingriffen 403er und 404er hagelte, gab der Bot sich nicht zufrieden und rief die Dateien unverdrossen und zigtausendfach weiter auf.

Ohne daß ich mich näher mit der Funktionsweise des Bots beschäftigt habe: Wo ist der Sinn, wenn der (oder von mir aus auch ein) Bot plötzlich jeden Tag die gleichen Seiten und damit auch die gleichen Inhalte mehrfach durchsucht? Dadurch gehen ja nicht nur mir Kapazitäten verloren, auch die Google-Leitungen glühen sinnlos.

Jahrelang gab es für mich keinen Anlaß zu Beschwerden, aber in den letzten zwei Wochen wurde das Benehmen des Bots wirklich lästig.
Wenn ich sowas lesen, kennst du die Robots.txt? Damit kannst du dem Bot sagen was er Crawlen soll und was nicht, benutze es, hoffentlich kickt die Google für diese Frechheit :bad-words:

jr
PostRank 1
PostRank 1
Beiträge: 10
Registriert: 18.10.2004, 01:58
Wohnort: Oldenburg

Beitrag von jr » 12.01.2008, 23:52

Damit kannst du dem Bot sagen was er Crawlen soll und was nicht,
Nur wenn er sich daran hält. Das oben erwähnte "Sleep" scheint ja Folgen zu haben, "delay" wohl nicht bei jedem Bot. Wenn ich aber die IP sperre und selbst das keinen Einfluß auf die Anzahl der Aufrufe hat, dann finde ich das eben weniger gut.
hoffentlich kickt die Google für diese Frechheit
Muß ich den Bot jetzt mit "Eure Hoheit" ansprechen?

Im übrigen - hier ist schon die nächste Anfrage zum Thema:
https://www.abakus-internet-marketing.d ... 51523.html

Massen-Crawling ist in meinen Augen nichts anderes als Massen-Mails. Sinn- und nutzlos, Ressourcen-Verschwendung.

SeoBlogger.de
PostRank 4
PostRank 4
Beiträge: 101
Registriert: 09.04.2007, 16:06
Wohnort: Teublitz

Beitrag von SeoBlogger.de » 13.01.2008, 00:27

jetzt wirds insgesamt wirklich lächerlich...
Bild

SusanneMelzer
PostRank 2
PostRank 2
Beiträge: 34
Registriert: 08.01.2008, 08:33

Beitrag von SusanneMelzer » 13.01.2008, 01:33

lächerlich finde ich das nicht.....

Die Crawlinggeschwindigkeit wurde geändert und jetzt arbeitet er langsamer, was auch gleich zu merken ist. Serverlast wieder runter!

Allerdings hat er jetzt innerhalb von 24h insgesamt rund 17500 Seiten gespidert.......


:o :o :o :o

Ich meine, solange die Serverlast nicht wieder so hochkocht ist das auch ok, aber so muß ich jeden Monat wieder zurückstellen auf langsam, ist auch blöd.

Ju-Hu!
PostRank 4
PostRank 4
Beiträge: 140
Registriert: 23.12.2007, 00:39
Wohnort: Leipzig

Beitrag von Ju-Hu! » 13.01.2008, 01:56

Tja, irgendwie werde ich die Vermutung nicht los, daß Google nun doch auf Aktualität Wert legt und Websites mit Spiderbesuchen zuspamt *g*

Zieht Euch alle warm an *g*

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag