Seite 1 von 1

Einzelne Datei für Google sperren

Verfasst: 11.01.2005, 17:08
von Septober
Hallo Zusammen,

ich habe eine Datei /logon.php?Parameter im Stammverzeichnis, wie kann ich diese datei für Google sperren?

In der robots.txt habe ich folgenden Eintrag:

User-agent: *
Disallow: /login.php

dieser wird jedoch ignoriert.

Hat jemand eine Idee?

Danke

Günter

Verfasst:
von

Verfasst: 12.01.2005, 11:17
von Maschenka
Vielleicht, weil du in der robots.txt "login.php" geschrieben hast, die Datei aber "logon.php" heißt?

Verfasst: 12.01.2005, 14:22
von HW
<meta name="robots" content="noindex,nofollow" />
müsste eigentlich reichen.

..zumindest funktioniert es bei meinen Error-Pages.

Verfasst:
von

Verfasst: 12.01.2005, 17:14
von Septober
Danke für die Antworten, die Datei heißt login.php, das Logon kam wegen der breiten Finger zustande :D

Ich habe jetzt mal folgendes versucht, vielleicht funktioniert das.

User-agent: googlebot
Disallow: /*?

Verfasst: 12.01.2005, 18:43
von wbartl
User-agent: Googlebot
Disallow: /login.php

Auf diese Art funktioniert es bei mir. Das ? heißt ja nur, das er keine Session-ids spidert. Wichtig ist, die Angabe des User-agent Googlebot
Mit User-agent * hat es bei mir nicht geklappt.

Verfasst: 12.01.2005, 20:52
von Septober
Hallo wbartl,
ich habe jetzt mit

User-agent: googlebot
Disallow: /*?

wie bei Google beschrieben, alle dynamischen Inhalte gesperrt, das ist auch OK so, weil ich eh mit mod_rewirte arbeite.

Danke.

Günter

Einzelne Datei für Google sperren

Verfasst: 20.05.2005, 15:33
von polk
Wie muss man jetzt die robots.txt richtig schreiben um Session ID´s für den Googlebot abzuschalten?

So?
------------------
User-agent: googlebot
Disallow: /*?
------------------