Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Nochmal die robots.txt

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
superolli
PostRank 8
PostRank 8
Beiträge: 718
Registriert: 22.07.2007, 14:17

Beitrag von superolli » 03.06.2008, 06:51

Auch wenn es hier unzählige Abhandlungen gibt über die robots.txt, zu meiner Frage habe ich unterschiedliche Aussagen gelesen.

Es heisst überall, ich kann mit der robots.txt nur interne Verzeichnisse sperren, geht das denn nicht für die einzelnen Shopseiten bzw. einzelne dieser verflixten Pdf-Dateien?

Ich möchte im Ergebnis die Widerruf- Versandkosten und AGB Seiten etc. rausnehmen.

Grüße & Danke vorab für jedwede Hilfe.

Oliver