Seite 1 von 1
Seiten sperren
Verfasst: 16.08.2007, 11:07
von mcd
Hallo wie kann ich in meinem XTC einzelne Seiten sperren, die google nicht auslesen soll? Danke
Verfasst:
von
Hochwertiger Linkaufbau bei ABAKUS:
- Google-konformer Linkaufbau
- nachhaltiges Ranking
- Linkbuilding Angebote zu fairen Preisen
- internationale Backlinks
Wir bieten
Beratung und
Umsetzung.
Jetzt anfragen:
0511 / 300325-0
Verfasst: 16.08.2007, 11:10
von FL4PJ4CK
robots.txt
Verfasst: 16.08.2007, 11:14
von mcd
danke, und wie???
Verfasst: 16.08.2007, 11:17
von Thomas B
User-agent: *
Disallow: /deine-unterseite
Verfasst: 16.08.2007, 11:18
von luzie
kannst auch auf den seiten diesen metatag einfügen:
<meta name="robots" content="noindex">
Verfasst: 16.08.2007, 11:22
von mcd
meine robots sieht jetzt so aus
User-agent: *
Disallow: /html/shop/media/content/agb.htm
Disallow: /html/shop/media/content/agb2.htm
Disallow: /html/shop/media/content/impressum.htm
Disallow: /html/shop/media/content/service.htm
Disallow: /html/shop/media/content/versand.htm
Disallow: /html/shop/media/content/zahlung.htm
passt oder? Oder sollte man die URLs anstatt den Dateien verwenden?
Noch eine Frage: Im Explorer komme ich zu diesen Seiten auch OHNE /html/shop/ ... sollte ich das weglassen?
Verfasst: 16.08.2007, 15:13
von mcd
hilfe?
Verfasst: 16.08.2007, 15:22
von Michael1967
Hilfe? Na wie sehen deine Links denn aus?
Hilfe!
Verfasst: 16.08.2007, 15:24
von mcd
Links? Ich dachte man muss die Datei sperren und nicht die Links in der Robots angeben?
Was denn nun? URLs oder Datein? DIe sind im XTC ja verschieden.
Im Explorer komme ich zu diesen Seiten auch OHNE /html/shop/ ... sollte ich das weglassen?
Verfasst: 16.08.2007, 15:27
von Michael1967
Verfasst: 16.08.2007, 15:29
von mcd
zum Beispiel ist der Link für Zahlunginfos im Shop unter
https://www.domain.de/zahlungsmoeglichkeiten:_:104.html AUF DER SERVER aber unter /html/shop/media/content/zahlung.htm
welches nehmen?
Verfasst: 16.08.2007, 15:31
von Michael1967
Gib mir mal eine URL die schon gesperrt ist. Ich schaue mal ob das fluppt.
Geht auch per PN.
Verfasst: 18.08.2007, 13:26
von Hasenhuf
Nicht wenn es da noch Seiten/Unterverzeichnisse mit entsprechenden Namen gibt, die gefunden werden sollen.
https://de.selfhtml.org/diverses/robots.htm
Verfasst: 18.08.2007, 21:36
von ramiba
also ich würde das lieber über die htaccess + robots.txt machen das ist sicherer
Re: Seiten sperren
Verfasst: 18.08.2007, 22:26
von naughty
mcd hat geschrieben:Hallo wie kann ich in meinem XTC einzelne Seiten sperren, die google nicht auslesen soll? Danke
Wenn Google einzelne Seiten nicht indexieren soll, dann kannst Du folgenden Metatag im Header der jeweiligen Seite einfügen: