Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

robots.txt: Fast alle Seiten ausschließen

Das Board für die kleine Abwechslung. Hast Du was lustiges im Web gefunden oder was offtopic dann hier rein!
Neues Thema Antworten
Petermania
PostRank 1
PostRank 1
Beiträge: 15
Registriert: 05.06.2005, 20:17

Beitrag von Petermania » 26.06.2005, 13:41

Hallo,

wie realisiere ich es am besten, wenn ich jede Seite außer meiner index-Seite für Crawler ausschließen möchte? Gibt es eine "bessere" Möglichkeit, als jedes Verzeichnis / jede Datei einzeln zu notieren?

Danke,
Peter

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Sephyra
PostRank 2
PostRank 2
Beiträge: 63
Registriert: 23.05.2004, 14:50

Beitrag von Sephyra » 26.06.2005, 14:06

Vielleicht sowas:

User-agent: *
Disallow: /
Allow: index.html


:-?

stalker
PostRank 6
PostRank 6
Beiträge: 400
Registriert: 29.01.2004, 18:00

Beitrag von stalker » 26.06.2005, 14:07

du kannst ersteinmal alle crawler aussperren
User-agent: *
Disallow: /

Und dann aber mittels allow deine index datei zum crawlen freigeben

User-agent: *
Allow: /index.html

Interpretieren nicht alle Crawler richtig, Google sollte damit aber keine Probleme haben.

Petermania
PostRank 1
PostRank 1
Beiträge: 15
Registriert: 05.06.2005, 20:17

Beitrag von Petermania » 26.06.2005, 14:07

Habe ich mir auc gedacht, aber ich meine einmal gelesen zu haben, dass dieses "Allow" nicht konform ist. Trotzdem danke :)

luigip
PostRank 8
PostRank 8
Beiträge: 892
Registriert: 24.01.2005, 18:22

Beitrag von luigip » 27.06.2005, 01:17

@Petermania
Vielleicht hilft dir dieses tool.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag