Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Einzelne Datei für Google sperren

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
Septober
PostRank 3
PostRank 3
Beiträge: 74
Registriert: 08.10.2004, 21:48
Wohnort: Berlin

Beitrag von Septober » 11.01.2005, 17:08

Hallo Zusammen,

ich habe eine Datei /logon.php?Parameter im Stammverzeichnis, wie kann ich diese datei für Google sperren?

In der robots.txt habe ich folgenden Eintrag:

User-agent: *
Disallow: /login.php

dieser wird jedoch ignoriert.

Hat jemand eine Idee?

Danke

Günter

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Maschenka
PostRank 3
PostRank 3
Beiträge: 98
Registriert: 19.11.2004, 16:38

Beitrag von Maschenka » 12.01.2005, 11:17

Vielleicht, weil du in der robots.txt "login.php" geschrieben hast, die Datei aber "logon.php" heißt?

HW
PostRank 8
PostRank 8
Beiträge: 761
Registriert: 04.04.2004, 08:00
Wohnort: Viersen

Beitrag von HW » 12.01.2005, 14:22

<meta name="robots" content="noindex,nofollow" />
müsste eigentlich reichen.

..zumindest funktioniert es bei meinen Error-Pages.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Septober
PostRank 3
PostRank 3
Beiträge: 74
Registriert: 08.10.2004, 21:48
Wohnort: Berlin

Beitrag von Septober » 12.01.2005, 17:14

Danke für die Antworten, die Datei heißt login.php, das Logon kam wegen der breiten Finger zustande :D

Ich habe jetzt mal folgendes versucht, vielleicht funktioniert das.

User-agent: googlebot
Disallow: /*?

wbartl
PostRank 5
PostRank 5
Beiträge: 292
Registriert: 07.12.2003, 13:06

Beitrag von wbartl » 12.01.2005, 18:43

User-agent: Googlebot
Disallow: /login.php

Auf diese Art funktioniert es bei mir. Das ? heißt ja nur, das er keine Session-ids spidert. Wichtig ist, die Angabe des User-agent Googlebot
Mit User-agent * hat es bei mir nicht geklappt.

Septober
PostRank 3
PostRank 3
Beiträge: 74
Registriert: 08.10.2004, 21:48
Wohnort: Berlin

Beitrag von Septober » 12.01.2005, 20:52

Hallo wbartl,
ich habe jetzt mit

User-agent: googlebot
Disallow: /*?

wie bei Google beschrieben, alle dynamischen Inhalte gesperrt, das ist auch OK so, weil ich eh mit mod_rewirte arbeite.

Danke.

Günter

polk
PostRank 1
PostRank 1
Beiträge: 8
Registriert: 20.05.2005, 12:35

Beitrag von polk » 20.05.2005, 15:33

Wie muss man jetzt die robots.txt richtig schreiben um Session ID´s für den Googlebot abzuschalten?

So?
------------------
User-agent: googlebot
Disallow: /*?
------------------

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag