Seite 1 von 1
Einzelne Datei für Google sperren
Verfasst: 11.01.2005, 17:08
von Septober
Hallo Zusammen,
ich habe eine Datei /logon.php?Parameter im Stammverzeichnis, wie kann ich diese datei für Google sperren?
In der robots.txt habe ich folgenden Eintrag:
User-agent: *
Disallow: /login.php
dieser wird jedoch ignoriert.
Hat jemand eine Idee?
Danke
Günter
Verfasst:
von
Content Erstellung von
ABAKUS Internet Marketing
Ihre Vorteile:
- einzigartige Texte
- suchmaschinenoptimierte Inhalte
- eine sinnvolle Content-Strategie
- Beratung und Umsetzung
Jetzt anfragen:
0511 / 300325-0
Verfasst: 12.01.2005, 11:17
von Maschenka
Vielleicht, weil du in der robots.txt "login.php" geschrieben hast, die Datei aber "logon.php" heißt?
Verfasst: 12.01.2005, 14:22
von HW
<meta name="robots" content="noindex,nofollow" />
müsste eigentlich reichen.
..zumindest funktioniert es bei meinen Error-Pages.
Verfasst: 12.01.2005, 17:14
von Septober
Danke für die Antworten, die Datei heißt login.php, das Logon kam wegen der breiten Finger zustande
Ich habe jetzt mal folgendes versucht, vielleicht funktioniert das.
User-agent: googlebot
Disallow: /*?
Verfasst: 12.01.2005, 18:43
von wbartl
User-agent: Googlebot
Disallow: /login.php
Auf diese Art funktioniert es bei mir. Das ? heißt ja nur, das er keine Session-ids spidert. Wichtig ist, die Angabe des User-agent Googlebot
Mit User-agent * hat es bei mir nicht geklappt.
Verfasst: 12.01.2005, 20:52
von Septober
Hallo wbartl,
ich habe jetzt mit
User-agent: googlebot
Disallow: /*?
wie bei Google beschrieben, alle dynamischen Inhalte gesperrt, das ist auch OK so, weil ich eh mit mod_rewirte arbeite.
Danke.
Günter
Einzelne Datei für Google sperren
Verfasst: 20.05.2005, 15:33
von polk
Wie muss man jetzt die robots.txt richtig schreiben um Session ID´s für den Googlebot abzuschalten?
So?
------------------
User-agent: googlebot
Disallow: /*?
------------------