Seite 1 von 1
Wieso missachtet G**gle die robost.txt?
Verfasst: 27.09.2007, 14:32
von buttinette
Hallo,
seit kurzem missachtet G**gle einen Eintrag in meiner robots.txt.
Früher stand im Suchergebniss nur meine Domain (
www.meinedomain.de) und jetzt *
www.meinedomain.de/gesperrter-Ordner/index.php?*.
Da ich eine dynamische Website habe und sich nach der index.php eine Session ID öffnet, ist es für meine SEO arbeiten nicht Sinnvoll das G**gle auf einmal dieses Suchergebniss bringt. Deshalb habe ich schon seit Anfang an den bestimmten Ordner in der robots.txt für G**gle gesperrt.
Woran kann es liegen, dass Google auf einmal dieses Suchergebniss bringt und meine Startseite aus dem Index gelöscht hat obwohl der Ordner gesperrt ist?
Vielen Dank!
Gruß
Verfasst:
von
Content Erstellung von
ABAKUS Internet Marketing
Ihre Vorteile:
- einzigartige Texte
- suchmaschinenoptimierte Inhalte
- eine sinnvolle Content-Strategie
- Beratung und Umsetzung
Jetzt anfragen:
0511 / 300325-0
Verfasst: 27.09.2007, 14:35
von nob
Das hatte ich auch, ein Projekt zum Installieren auf eine freie Domain gestellt und per robots gesperrt, kurz darauf waren die Seiten im Index.
Verfasst: 27.09.2007, 14:50
von luzie
seit kurzem missachtet G**gle einen Eintrag in meiner robots.txt
glaub' ich nicht, du hast es falsch reingeschrieben
Verfasst: 27.09.2007, 15:04
von HBurk
glaube da auch eher an einen typo, bei mir hält google sich an die robots.txt
User-Agent: *
Dissalow: /
spert alle "guten bots" aus, die bösen reagieren nur auf .htaccess

Verfasst: 27.09.2007, 15:06
von buttinette
Wie meinst du das?
Verfasst: 27.09.2007, 15:07
von buttinette
Der Eintrag sieht so aus:
User-agent: *
Disallow: /eshop/
googlebot muß persönlich angesprochen werden
Verfasst: 27.09.2007, 15:45
von seonewbie
Hallo,
die grossen haben sich angewohnt nur zu gehorchen
wenn man sie persönlich anspricht.
Packt mal das in eure robot.txt und dann ist ruhe:
User-agent: googlebot
Disallow: /pfad
User-agent: msnbot
Disallow: /pfad
User-agent: Slurp
Disallow: /pfad
Gruß
Micha
Verfasst: 27.09.2007, 17:27
von WhispR
Kannst ja mal in die Webmastertools von Google schaun, da steht einiges...
und du kannst dne Content ja auch wieder entfernen lassen
Verfasst: 27.09.2007, 17:43
von HBurk
Wie meinst du das?
damit sperre ich böse spam bots via .htacces vor dem Zugriff aus:
Deny from 85.10.197.0/27
Deny from 85.10.199.0/24
Deny from 85.10.204.0/24
die bekommen dann nur eine 403 vorbiden Seite gezeigt

Verfasst: 28.09.2007, 06:07
von buttinette
Danke für eure Antworten.
Ich versuch den Vorschlag von seonewbie mal.
Ich sprech den Spider mal direkt an, vll gehorcht er mir ja.

Verfasst: 28.09.2007, 07:32
von Yel nats
Vielleicht haste ja auch robots.txt falsch geschrieben? Hier in der Überschrift stehts nämlich auch falsch
Gruß,
Yel Nats
P.S. ja mir ist das auch schonmal passiert.
Verfasst: 28.09.2007, 08:26
von buttinette
Nee, nee, die txt heißt schon richtig.
aber trotzdem danke!
