Seite 1 von 1

robots.txt: Fast alle Seiten ausschließen

Verfasst: 26.06.2005, 13:41
von Petermania
Hallo,

wie realisiere ich es am besten, wenn ich jede Seite außer meiner index-Seite für Crawler ausschließen möchte? Gibt es eine "bessere" Möglichkeit, als jedes Verzeichnis / jede Datei einzeln zu notieren?

Danke,
Peter

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


robots.txt: Fast alle Seiten ausschließen

Verfasst: 26.06.2005, 14:06
von Sephyra
Vielleicht sowas:

User-agent: *
Disallow: /
Allow: index.html


:-?

robots.txt: Fast alle Seiten ausschließen

Verfasst: 26.06.2005, 14:07
von stalker
du kannst ersteinmal alle crawler aussperren
User-agent: *
Disallow: /

Und dann aber mittels allow deine index datei zum crawlen freigeben

User-agent: *
Allow: /index.html

Interpretieren nicht alle Crawler richtig, Google sollte damit aber keine Probleme haben.

robots.txt: Fast alle Seiten ausschließen

Verfasst: 26.06.2005, 14:07
von Petermania
Habe ich mir auc gedacht, aber ich meine einmal gelesen zu haben, dass dieses "Allow" nicht konform ist. Trotzdem danke :)

Verfasst: 27.06.2005, 01:17
von luigip
@Petermania
Vielleicht hilft dir dieses tool.