Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Wieso missachtet G**gle die robost.txt?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
buttinette
PostRank 1
PostRank 1
Beiträge: 28
Registriert: 04.09.2007, 14:25

Beitrag von buttinette » 27.09.2007, 14:32

Hallo,

seit kurzem missachtet G**gle einen Eintrag in meiner robots.txt.

Früher stand im Suchergebniss nur meine Domain (www.meinedomain.de) und jetzt *www.meinedomain.de/gesperrter-Ordner/index.php?*.

Da ich eine dynamische Website habe und sich nach der index.php eine Session ID öffnet, ist es für meine SEO arbeiten nicht Sinnvoll das G**gle auf einmal dieses Suchergebniss bringt. Deshalb habe ich schon seit Anfang an den bestimmten Ordner in der robots.txt für G**gle gesperrt.

Woran kann es liegen, dass Google auf einmal dieses Suchergebniss bringt und meine Startseite aus dem Index gelöscht hat obwohl der Ordner gesperrt ist?

Vielen Dank!

Gruß

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

nob
PostRank 4
PostRank 4
Beiträge: 141
Registriert: 23.03.2007, 12:09

Beitrag von nob » 27.09.2007, 14:35

Das hatte ich auch, ein Projekt zum Installieren auf eine freie Domain gestellt und per robots gesperrt, kurz darauf waren die Seiten im Index.
Experiment Firmensite
Computer-Internet-Webkatalog
Linkpartner aus dem Bereich Computer / Netzwerk gesucht.

luzie
PostRank 10
PostRank 10
Beiträge: 4228
Registriert: 12.07.2007, 13:43
Wohnort: Hannover, Linden-Nord

Beitrag von luzie » 27.09.2007, 14:50

seit kurzem missachtet G**gle einen Eintrag in meiner robots.txt
glaub' ich nicht, du hast es falsch reingeschrieben
Bilduzie - [url=httpss://plus.google.com/+HerbertSulzer/about]Google Official Bionic Top Contributor on Google Webmaster Central[/url]

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


HBurk
PostRank 6
PostRank 6
Beiträge: 451
Registriert: 11.04.2006, 13:14
Wohnort: Süd Hessen

Beitrag von HBurk » 27.09.2007, 15:04

glaube da auch eher an einen typo, bei mir hält google sich an die robots.txt

User-Agent: *
Dissalow: /

spert alle "guten bots" aus, die bösen reagieren nur auf .htaccess
:wink:

buttinette
PostRank 1
PostRank 1
Beiträge: 28
Registriert: 04.09.2007, 14:25

Beitrag von buttinette » 27.09.2007, 15:06

Wie meinst du das?

buttinette
PostRank 1
PostRank 1
Beiträge: 28
Registriert: 04.09.2007, 14:25

Beitrag von buttinette » 27.09.2007, 15:07

Der Eintrag sieht so aus:

User-agent: *

Disallow: /eshop/

seonewbie
PostRank 9
PostRank 9
Beiträge: 1939
Registriert: 21.10.2006, 20:50

Beitrag von seonewbie » 27.09.2007, 15:45

Hallo,

die grossen haben sich angewohnt nur zu gehorchen
wenn man sie persönlich anspricht.

Packt mal das in eure robot.txt und dann ist ruhe:

User-agent: googlebot

Disallow: /pfad



User-agent: msnbot
Disallow: /pfad

User-agent: Slurp
Disallow: /pfad


Gruß

Micha
Suche Linktausch zum Thema Mode. Bitte PM
Backlink-Generator | Artikelverzeichnis | PageRank | SEnuke X
Don't smoke, don't fight, don't light no cigarettes,
Or else you'll wind up in the can!
No jokes, no rights, sit tight, don't fool around,
You are a guest of Uncle Sam!
AC/DC "I'll be damned"

WhispR
PostRank 2
PostRank 2
Beiträge: 42
Registriert: 24.08.2007, 13:55

Beitrag von WhispR » 27.09.2007, 17:27

Kannst ja mal in die Webmastertools von Google schaun, da steht einiges...

und du kannst dne Content ja auch wieder entfernen lassen

HBurk
PostRank 6
PostRank 6
Beiträge: 451
Registriert: 11.04.2006, 13:14
Wohnort: Süd Hessen

Beitrag von HBurk » 27.09.2007, 17:43

Wie meinst du das?
damit sperre ich böse spam bots via .htacces vor dem Zugriff aus:
Deny from 85.10.197.0/27
Deny from 85.10.199.0/24
Deny from 85.10.204.0/24

die bekommen dann nur eine 403 vorbiden Seite gezeigt
:wink:

buttinette
PostRank 1
PostRank 1
Beiträge: 28
Registriert: 04.09.2007, 14:25

Beitrag von buttinette » 28.09.2007, 06:07

Danke für eure Antworten.

Ich versuch den Vorschlag von seonewbie mal.
Ich sprech den Spider mal direkt an, vll gehorcht er mir ja. ;-)

Yel nats
PostRank 7
PostRank 7
Beiträge: 646
Registriert: 28.06.2004, 07:50

Beitrag von Yel nats » 28.09.2007, 07:32

Vielleicht haste ja auch robots.txt falsch geschrieben? Hier in der Überschrift stehts nämlich auch falsch :)

Gruß,

Yel Nats
P.S. ja mir ist das auch schonmal passiert.

buttinette
PostRank 1
PostRank 1
Beiträge: 28
Registriert: 04.09.2007, 14:25

Beitrag von buttinette » 28.09.2007, 08:26

Nee, nee, die txt heißt schon richtig.
aber trotzdem danke! ;-)

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag