so mal nee kleine "blöde" Frage von mir.
Ich habe einen kleinen Server gemietet auf dem meine Website läuft.
Heute früh hatte ich einen totalen Serverausfall...verursacht durch den Ansturm von Google-Spider...
Habt Ihr einen Tipp, wie man dies eingrenzen kann?
Sprich, dass es dadurch nicht wieder zum komplett Black-Out kommt...
Möchte aber eben auch nicht komplett die Spider verbannen....
...ja also in dem Fall natürlich auf alle Fälle den googlebot aussperren.... das pöse Tierchen... unheilbringendes und serverlahmlegendes Schadprogramm... also ich bin mir auch total sicher, dass es der googlebot war... echt schlimm... don´t be evil, und dann sowas...
Ich kenn mich mit Servern nicht aus... scheint ja (aufgrund der Reaktionen hier), dass sowas durch den Google-Bot eig. nicht passieren kann. Allerdings kannst du, um deine Frage zu beantworten, in den Google Webmaster Tools die Crawlgeschwindigkeit reduzieren.
Das sind eigentlich die minimalen Handwerksschritte die ein Admin
macht bevor er ein CMS aufsetzt leider ist das im Zeitalter von
billig Hosting etwas aus der Mode.
So, was auch noch sein kann ist das parallel zu Google dich irgend
ein Bot mit Paketen beschießt die Du nicht siehst.
Deshalb Firewall - schon mal gehört?
Lesen, aneignen und mindestens Punkt 1,2 und 5 umsetzen.
Wem das zu kompliziert ist einen Admin anheuern. Auf keinen
Fall den von seinem unfähigen Hoster, wenn der ein System so
vermietet das es in den Zustand kommt wie vom Threaderöffner beschrieben.
Ich schlage mich seit mehr als Zehn Jahren damit rum das wenn ich
beginne SEO für einen Kunden zu machen die IT Abteilung Amok
läuft weil sie es nicht gebacken bekommen wenn mal ein paar
crawler vorbei kommen. Die Unfähigkeit gerade in Deutschland bei
dem großen Hostern ist schier unglaublich und unermäßlich. Alleine
das ein Kunde in so eine Situation kommt, einfach unglaublich.
Auch die Ausrede wir installieren nur ein nacktes Debian - warum?
Man könnte doch zumindest die Security Pakete die Debian an
Board hat installieren. Statt dessen installieren 1&1, Hetzner und Co.
Betriebssysteme die beim ersten crawling (Wohlgemerkt Crawling nicht Angriff!) sich weg hängen.
Geb deinem Hoster mal die Liste die sollen dir ein Angebot machen
wenn Sie 1-6 abarbeiten ... die Antwort wird vermutlich eine Ausrede
sein ... sie können es nicht weil sie gar nicht das Qualifizierte Personal haben.
Suche Linktausch zum Thema Mode. Bitte PM Backlink-Generator | Artikelverzeichnis | PageRank | SEnuke X
Don't smoke, don't fight, don't light no cigarettes,
Or else you'll wind up in the can!
No jokes, no rights, sit tight, don't fool around,
You are a guest of Uncle Sam!
AC/DC "I'll be damned"
@Malte Landwehr
Bei moderatem Linkaufbau sehe ich das auch so.
Allerdings merkt man gutes SEO auch immer daran wenn die IT Abteilung
des Kunden anruft und sich bei der SEO Company beklagt.
Man sollte da für eine Gebührenpflichtige 0900 Nummer einrichten
Um dem gejammer aus dem Weg zu gehen wäre eine Cluster auf den
man die Kunden legen kann nicht schlecht so das man nach belieben
Server und Performance nachschieben kann.
Allerdings ergibt sich da auch eine Diskrepanz. Ist der Kunde auf
mehreren Amazonec2 merkt er das SEO sich auch deutlich in den
Traffic kosten niederschlägt.
Suche Linktausch zum Thema Mode. Bitte PM Backlink-Generator | Artikelverzeichnis | PageRank | SEnuke X
Don't smoke, don't fight, don't light no cigarettes,
Or else you'll wind up in the can!
No jokes, no rights, sit tight, don't fool around,
You are a guest of Uncle Sam!
AC/DC "I'll be damned"