Seite 1 von 1

Wie kann ich gewisse Seiten vor den Robots ausschliessen?

Verfasst: 08.08.2005, 20:07
von DaniP1976
Hallo,

ich möchte dieser Art Seiten:
www.wohnungsboerse.net/image.php?id=1876&big=1

vor den Robots ausschliessen, so daß sie nicht in googles index kommen.
Im moment habe ich in der robots.txt das hier stehen:

User-agent: *
Disallow: /image.php

das scheint aber nicht zu gehen, denn es sind schon wieder neue Seiten im Index.

Wer kann mir helfen.
LG Dani

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Wie kann ich gewisse Seiten vor den Robots ausschliessen?

Verfasst: 08.08.2005, 21:43
von heddesheimer
Nicht alle Robots beachten die robots.txt

Die "seriösen" Suchmaschinen wie Google, Yahoo etc. sollten sich eigentlich daran halten. Ich sehe schon, wo du bei Google das Problem hast. Vermutlich wird der Parameter hinter dem image.php als URL mit interpretiert, so dass der Ausschluss von "image.php" allein hier nicht greift.

Die einzige Lösung, die mir auf Anhieb einfällt: Packe das Skript image.php in ein anderes Verzeichnis (z.B. /images/) und füge ein Disallow: /images/ in die robots.txt ein. Damit solltest du alle Abfrufe in diesem Verzeichnis (mit oder ohne Parameter) von den Suchmaschinen fernhalten können.

Gruß Marian

Wie kann ich gewisse Seiten vor den Robots ausschliessen?

Verfasst: 08.08.2005, 21:54
von DaniP1976
Hi, ich fürchte das geht vom Aufbau der Seite nicht´, das ich das php-script verschiebe. Aber ich werde noch mal schauen. Danke schonmal.

LG Dani

Wie kann ich gewisse Seiten vor den Robots ausschliessen?

Verfasst: 08.08.2005, 22:56
von Chris2005
@DaniP1976: sind die Seiten gespidert worden (Logfiles kontrollieren) oder tauchen sie nur als Karteileichen auf? Der Gogglebot packt jede Seite, die er findet (auch wenn die in der robots.txt gelistet ist), als URL-only in den Index. Gespidert wird da aber nix.

Ansonsten es mal mit

Code: Alles auswählen

User-Agent: *
Disallow: /image
probieren. msn, yahoo und google halten sich daran. Der Rest ist eh (zumindestens aus Suma-Sicht) uninteressant. Für den Rest muss man zu anderen Methoden greifen (.htaccess)

Wie kann ich gewisse Seiten vor den Robots ausschliessen?

Verfasst: 09.08.2005, 00:28
von netnut
Die Bots schnappen sich die robots.txt nicht bei jedem Besuch, sondern laut FAQs bei G und Co. nur alle paar Monate. Wenn Du es beschleunigen willst bietet G diese Seite:
https://services.google.com/urlconsole/controller
Damit wird die robots.txt sofort geladen und alle gesperrten Seiten fliehgen binnen 24 Stunden aus dem Index.

Wie kann ich gewisse Seiten vor den Robots ausschliessen?

Verfasst: 09.08.2005, 17:04
von DaniP1976
Danke für den Tipp.Bin gespannt obs geht. LG Dani