Seite 1 von 1
robots.txt: Fast alle Seiten ausschließen
Verfasst: 26.06.2005, 13:41
von Petermania
Hallo,
wie realisiere ich es am besten, wenn ich jede Seite außer meiner index-Seite für Crawler ausschließen möchte? Gibt es eine "bessere" Möglichkeit, als jedes Verzeichnis / jede Datei einzeln zu notieren?
Danke,
Peter
Verfasst:
von
SEO Consulting bei
ABAKUS Internet Marketing Erfahrung seit 2002
- persönliche Betreuung
- individuelle Beratung
- kompetente Umsetzung
Jetzt anfragen:
0511 / 300325-0.
robots.txt: Fast alle Seiten ausschließen
Verfasst: 26.06.2005, 14:06
von Sephyra
Vielleicht sowas:
User-agent: *
Disallow: /
Allow: index.html

robots.txt: Fast alle Seiten ausschließen
Verfasst: 26.06.2005, 14:07
von stalker
du kannst ersteinmal alle crawler aussperren
User-agent: *
Disallow: /
Und dann aber mittels allow deine index datei zum crawlen freigeben
User-agent: *
Allow: /index.html
Interpretieren nicht alle Crawler richtig, Google sollte damit aber keine Probleme haben.
robots.txt: Fast alle Seiten ausschließen
Verfasst: 26.06.2005, 14:07
von Petermania
Habe ich mir auc gedacht, aber ich meine einmal gelesen zu haben, dass dieses "Allow" nicht konform ist. Trotzdem danke

Verfasst: 27.06.2005, 01:17
von luigip
@Petermania
Vielleicht hilft dir dieses
tool.