Seite 1 von 1
Wie kann ich gewisse Seiten vor den Robots ausschliessen?
Verfasst: 08.08.2005, 20:07
von DaniP1976
Hallo,
ich möchte dieser Art Seiten:
www.wohnungsboerse.net/image.php?id=1876&big=1
vor den Robots ausschliessen, so daß sie nicht in googles index kommen.
Im moment habe ich in der robots.txt das hier stehen:
User-agent: *
Disallow: /image.php
das scheint aber nicht zu gehen, denn es sind schon wieder neue Seiten im Index.
Wer kann mir helfen.
LG Dani
Verfasst:
von
SEO Consulting bei
ABAKUS Internet Marketing Erfahrung seit 2002
- persönliche Betreuung
- individuelle Beratung
- kompetente Umsetzung
Jetzt anfragen:
0511 / 300325-0.
Wie kann ich gewisse Seiten vor den Robots ausschliessen?
Verfasst: 08.08.2005, 21:43
von heddesheimer
Nicht alle Robots beachten die robots.txt
Die "seriösen" Suchmaschinen wie Google, Yahoo etc. sollten sich eigentlich daran halten. Ich sehe schon, wo du bei Google das Problem hast. Vermutlich wird der Parameter hinter dem image.php als URL mit interpretiert, so dass der Ausschluss von "image.php" allein hier nicht greift.
Die einzige Lösung, die mir auf Anhieb einfällt: Packe das Skript image.php in ein anderes Verzeichnis (z.B. /images/) und füge ein Disallow: /images/ in die robots.txt ein. Damit solltest du alle Abfrufe in diesem Verzeichnis (mit oder ohne Parameter) von den Suchmaschinen fernhalten können.
Gruß Marian
Wie kann ich gewisse Seiten vor den Robots ausschliessen?
Verfasst: 08.08.2005, 21:54
von DaniP1976
Hi, ich fürchte das geht vom Aufbau der Seite nicht´, das ich das php-script verschiebe. Aber ich werde noch mal schauen. Danke schonmal.
LG Dani
Wie kann ich gewisse Seiten vor den Robots ausschliessen?
Verfasst: 08.08.2005, 22:56
von Chris2005
@DaniP1976: sind die Seiten gespidert worden (Logfiles kontrollieren) oder tauchen sie nur als Karteileichen auf? Der Gogglebot packt jede Seite, die er findet (auch wenn die in der robots.txt gelistet ist), als URL-only in den Index. Gespidert wird da aber nix.
Ansonsten es mal mit
probieren. msn, yahoo und google halten sich daran. Der Rest ist eh (zumindestens aus Suma-Sicht) uninteressant. Für den Rest muss man zu anderen Methoden greifen (.htaccess)
Wie kann ich gewisse Seiten vor den Robots ausschliessen?
Verfasst: 09.08.2005, 00:28
von netnut
Die Bots schnappen sich die robots.txt nicht bei jedem Besuch, sondern laut FAQs bei G und Co. nur alle paar Monate. Wenn Du es beschleunigen willst bietet G diese Seite:
https://services.google.com/urlconsole/controller
Damit wird die robots.txt sofort geladen und alle gesperrten Seiten fliehgen binnen 24 Stunden aus dem Index.
Wie kann ich gewisse Seiten vor den Robots ausschliessen?
Verfasst: 09.08.2005, 17:04
von DaniP1976
Danke für den Tipp.Bin gespannt obs geht. LG Dani