Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Nochmal die robots.txt

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
superolli
PostRank 8
PostRank 8
Beiträge: 718
Registriert: 22.07.2007, 14:17

Beitrag von superolli » 03.06.2008, 06:51

Auch wenn es hier unzählige Abhandlungen gibt über die robots.txt, zu meiner Frage habe ich unterschiedliche Aussagen gelesen.

Es heisst überall, ich kann mit der robots.txt nur interne Verzeichnisse sperren, geht das denn nicht für die einzelnen Shopseiten bzw. einzelne dieser verflixten Pdf-Dateien?

Ich möchte im Ergebnis die Widerruf- Versandkosten und AGB Seiten etc. rausnehmen.

Grüße & Danke vorab für jedwede Hilfe.

Oliver

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


fi-ausbilden
PostRank 8
PostRank 8
Beiträge: 771
Registriert: 15.04.2006, 08:37

Beitrag von fi-ausbilden » 03.06.2008, 07:03

Nee, kann man nicht... Pack alle PDFs in ein Verzeichniss und mach dafür ein disallow...
Bild

np
PostRank 6
PostRank 6
Beiträge: 415
Registriert: 16.08.2006, 15:57

Beitrag von np » 03.06.2008, 19:56

Glaub ich schon das sowas über wildchars geht:
User-agent: *
Disallow: /*.pdf

Oder?

fi-ausbilden
PostRank 8
PostRank 8
Beiträge: 771
Registriert: 15.04.2006, 08:37

Beitrag von fi-ausbilden » 03.06.2008, 19:59

Keine Joker bei "Disallow"...
Bild

chrizz
PostRank 10
PostRank 10
Beiträge: 3044
Registriert: 05.07.2006, 10:37
Wohnort: Berlin

Beitrag von chrizz » 03.06.2008, 20:02

du kannst alle pdfs einzeln ausschließen... oder halt wie beschrieben alles in ein verzeichnis und das verzeichnis sperren...

und weils dich vielleicht auch interessiert:
https://www.sistrix.de/news/716-new-tag ... obots.html

Fridaynite
PostRank 10
PostRank 10
Beiträge: 2983
Registriert: 07.01.2004, 09:10

Beitrag von Fridaynite » 04.06.2008, 07:23

fi-ausbilden hat geschrieben:Keine Joker bei "Disallow"...
Das ist falsch.
https://www.google.com/support/webmaste ... swer=40367

Google unterstützt Wildcards. Bringt hier nicht immer Halbwissen als Tatsachen rein.

Malte Landwehr
PostRank 10
PostRank 10
Beiträge: 3474
Registriert: 22.05.2005, 10:45

Beitrag von Malte Landwehr » 04.06.2008, 07:27

Google unterstützt einen Code, der alle Dateien einer bestimmten Endung (in diesem Fall .pdf) sperrt. Dann musst du aber darauf achten für "User-agent: *" andere Regeln als für den Google Bot einzustellen!

Details findest du in der Webmasterhilfe von Google.

Beispielcode für deinen Fall (sperrt ALLE pdfs aber NUR für Google):

Code: Alles auswählen

User-agent: Googlebot Disallow: /*.pdf$
edit: Friday war schneller.
Die 45 wichtigsten SEO-Tools und wie ich sie nutze.

fi-ausbilden
PostRank 8
PostRank 8
Beiträge: 771
Registriert: 15.04.2006, 08:37

Beitrag von fi-ausbilden » 04.06.2008, 07:54

Is ja gut, das nutzt für Yahoo & Co. aber nix...
Bild

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag