Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Googlebot komplett aussperren

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
Xire
PostRank 2
PostRank 2
Beiträge: 30
Registriert: 10.04.2005, 22:56

Beitrag von Xire » 05.06.2007, 11:05

Wie kann ich für den Zeitraum von einigen Stunden komplett verhindern, dass Google-Bot Traffic verursacht ohne dass es negative Auswirkungen auf das Ranking gibt?

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Anonymous

Beitrag von Anonymous » 05.06.2007, 11:10

hmm.... server für ein paar Stunden nicht erreichbar macht nix... hat keine Auswirkung aufs ranking soweit ich beobachtet habe....

Xire
PostRank 2
PostRank 2
Beiträge: 30
Registriert: 10.04.2005, 22:56

Beitrag von Xire » 05.06.2007, 11:15

net(t)worker hat geschrieben:hmm.... server für ein paar Stunden nicht erreichbar macht nix... hat keine Auswirkung aufs ranking soweit ich beobachtet habe....
Danke erstmal.
Und wie gehe ich bei deinem Vorschlag konkret vor?
Die Seite soll ja weiterhin erreichbar sein, nur alle Bots sollen keinen Traffic verurschane

Anonymous

Beitrag von Anonymous » 05.06.2007, 11:30

hmm.... das wird nicht so einfach... meine bisherigen Erfahrungen beruhen auf diverse downzeiten durch Wartungsarbeiten beim Hoster... aber mal sehen was möglich wäre...

robots.txt scheidet aus... könnte auswirkungen auf die serps haben... und eng gesehen würde durch den Aufruf der robots.txt ja auch schon Traffic entstehen...

hmm... über .htaccess aussperren wäre eine möglichkeit.... müsstest du dann eben genau wissen welche bots so vorbeischauen..... aber auch hier dürfte alleine der Verbindungsversuch ja schon ein wenig Traffic verursachen.... und im Grunde ist es technisch auch unterscheidbar, ob ein server jetzt down ist oder ein Zugriff einfach abgeblockt wird... wenn ein server nicht erreichbar ist bekommt der bot vom letzten Router die Mitteilung, dass der Server nicht erreichbar ist... gut.. wenn der verbindungsversuch auf port 80 bei einem bot einfach zurückgewiesen wird, könnte es so aussehen, dass der webserver nicht läuft...

perfekt wäre aber die Lösung wenn ein vorgeschalteter Router den bots mitteilen würde, dass der server nicht erreichbar ist.... dann würde auf dem server auch garkein Traffic durch bots ankommen.... aber ich denke das wirst du nicht einrichten lassen können, oder?

Xire
PostRank 2
PostRank 2
Beiträge: 30
Registriert: 10.04.2005, 22:56

Beitrag von Xire » 05.06.2007, 11:53

net(t)worker hat geschrieben:
perfekt wäre aber die Lösung wenn ein vorgeschalteter Router den bots mitteilen würde, dass der server nicht erreichbar ist.... dann würde auf dem server auch garkein Traffic durch bots ankommen.... aber ich denke das wirst du nicht einrichten lassen können, oder?
Ein Load-Balancer steht zur Verfügung.
Wie verhält es sich mit dem Problem, dass die User-Agents vieler Bots getarnt sind?

Anonymous

Beitrag von Anonymous » 05.06.2007, 12:05

wie gesagt... du musst schon genau wissen welche bots so kommen..... und die dann am besten direkt über ip bzw useragent blocken.... wenn ein bot sich aber weiterhin als normaler User ausgibt und über ne dynamische Ip kommt, wirste da nicht viel machen können....

Xire
PostRank 2
PostRank 2
Beiträge: 30
Registriert: 10.04.2005, 22:56

Beitrag von Xire » 05.06.2007, 13:35

hmm ok, wie sieht es mit einem Status-Header 503 Service Unavailable aus?

"Der Server kann die Anfrage wegen Überlastung nicht bearbeiten. Die angeforderten Daten können deshalb nicht gesendet werden. In der Statusmeldung kann stehen, wann die Anfrage frühestens wieder bearbeitet werden kann. Im Gegensatz zum Status-Code 202 verarbeitet der Server die Daten nicht, sobald er wieder Kapazitäten hat."

Wäre das eine Möglichkeit?

Anonymous

Beitrag von Anonymous » 05.06.2007, 13:46

hmm... da wäre nur die Frage welche bots das verstehen?

Xire
PostRank 2
PostRank 2
Beiträge: 30
Registriert: 10.04.2005, 22:56

Beitrag von Xire » 05.06.2007, 13:56

das ist ein offizieller Status-Code, daher müsste das eigentlich funktionieren.
Vielleicht hat ja jemand Erfahrungen damit.

crazyblogz
PostRank 5
PostRank 5
Beiträge: 248
Registriert: 22.01.2007, 11:06

Beitrag von crazyblogz » 05.06.2007, 14:39

htaccess mit passwortschutz, allerdinigs kommt dann niemand mehr rein :-)

JR-EWING
PostRank 9
PostRank 9
Beiträge: 1098
Registriert: 19.02.2004, 10:16
Wohnort: Untermeitingen

Beitrag von JR-EWING » 05.06.2007, 14:59

Hier mal wie du Google identifizieren könntest

https://googlewebmastercentral.blogspot ... lebot.html

Notfalls kann du dir dazu mal die Spider Trap anschauen da ist das in functions.php implementiert....

Anonymous

Beitrag von Anonymous » 05.06.2007, 15:21

Xire hat geschrieben:das ist ein offizieller Status-Code, daher müsste das eigentlich funktionieren.
Vielleicht hat ja jemand Erfahrungen damit.
jo... ist offiziell... aber ob die bots die sich als User tarnen das dann auch verstehen.... oder ob der Googlebot sich merkt, dass er erst nach einer bestimmten Zeit wieder vorbeischauen soll...

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag