Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Google spidert durch robots.txt gesperrte Seiten trotzdem!

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
SirBerberitz
PostRank 2
PostRank 2
Beiträge: 51
Registriert: 30.12.2004, 18:58

Beitrag von SirBerberitz » 23.03.2005, 14:04

Hallo Freunde,

zum Verstaendniss: ich verwende einen osCommerce Shop, den ich inzwischen <meiner Meinung nach> auch ganz gut Dank diesem geilen Forum optimiren konnte 8)

Nun habe ich aber folgendes Problem:

Oft wenn der Gurgel Bot auf meiner Seite ist, liest er <obwohl durch robots.txt gesperrt> Seiten wie unter anderem die login.php und all_products.php aus, die er nicht auslesen soll!

Das meiner Meinung nach Schlimme ist, dass er den Link zu diesen Dateien dann auch oft ausgibt und der Besucher nach Klicken auf das entsprechende Suchergebniss nicht auf der Seite zum eigentlich gesuchten Produkt ist, sondern z.B. auf der login.php und durch die Auswertung des Usertrackings schlussfolgere ich, das viele sich durch das "Melden Sie sich an" erschrecken lassen und gleich wieder meine Seite verlassen ...

So solls aber nicht sein! :2gunfire:

Kann hier jemand helfen? Ich checks naemlich wirklich nicht :(

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Andy.C
PostRank 5
PostRank 5
Beiträge: 249
Registriert: 22.03.2005, 04:01
Wohnort: Berlin

Beitrag von Andy.C » 23.03.2005, 14:06

Hast du ganze Verzeichnisse Gesperrt oder nur Dateien?

mariow
PostRank 4
PostRank 4
Beiträge: 177
Registriert: 08.03.2005, 12:05

Beitrag von mariow » 23.03.2005, 14:10

Geht es um die Domain aus deiner Signatur? In dem Fall:
Deine robots.txt ist nicht valide. Leere Zeilen dienen zur Trenneung von Einträgen, danach muss jeweils eine neue "User-agent"-Zeile folgen. Sollte also z.B. so aussehen

Code: Alles auswählen

User-agent&#58; *
Disallow&#58; /seite1
Disallow&#58; /seite2

User-agent&#58; larbin
Disallow&#58; /

(Genaugenommen sieht das Protokoll AFAIR am Ende der Datei eine Leerzeile vor, das ist aber nicht sonderlich wichtig).

In deinem Fall ist wenn ich richtig geguckt habe nur eine "User-agent" Zeile vorhanden, es genügt also wenn du sämtliche Leerzeilen entfernst.

Viele Grüße,
Mario Witte