Seite 1 von 1

Seiten sperren

Verfasst: 16.08.2007, 11:07
von mcd
Hallo wie kann ich in meinem XTC einzelne Seiten sperren, die google nicht auslesen soll? Danke

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Verfasst: 16.08.2007, 11:10
von FL4PJ4CK
robots.txt

Verfasst: 16.08.2007, 11:14
von mcd
danke, und wie???

Verfasst:
von

Verfasst: 16.08.2007, 11:17
von Thomas B
User-agent: *

Disallow: /deine-unterseite

Verfasst: 16.08.2007, 11:18
von luzie
kannst auch auf den seiten diesen metatag einfügen:

<meta name="robots" content="noindex">

Verfasst: 16.08.2007, 11:22
von mcd
meine robots sieht jetzt so aus


User-agent: *
Disallow: /html/shop/media/content/agb.htm
Disallow: /html/shop/media/content/agb2.htm
Disallow: /html/shop/media/content/impressum.htm
Disallow: /html/shop/media/content/service.htm
Disallow: /html/shop/media/content/versand.htm
Disallow: /html/shop/media/content/zahlung.htm


passt oder? Oder sollte man die URLs anstatt den Dateien verwenden?

Noch eine Frage: Im Explorer komme ich zu diesen Seiten auch OHNE /html/shop/ ... sollte ich das weglassen?

Verfasst: 16.08.2007, 15:13
von mcd
hilfe?

Verfasst: 16.08.2007, 15:22
von Michael1967
Hilfe? Na wie sehen deine Links denn aus?

Hilfe!

Verfasst: 16.08.2007, 15:24
von mcd
Links? Ich dachte man muss die Datei sperren und nicht die Links in der Robots angeben?

Was denn nun? URLs oder Datein? DIe sind im XTC ja verschieden.

Im Explorer komme ich zu diesen Seiten auch OHNE /html/shop/ ... sollte ich das weglassen?

Verfasst: 16.08.2007, 15:27
von Michael1967
https://www.deineDomain.de/zahlung.htm

Dann muss nur - /zahlung da rein.

Verfasst: 16.08.2007, 15:29
von mcd
zum Beispiel ist der Link für Zahlunginfos im Shop unter

https://www.domain.de/zahlungsmoeglichkeiten:_:104.html AUF DER SERVER aber unter /html/shop/media/content/zahlung.htm

welches nehmen?

Verfasst: 16.08.2007, 15:31
von Michael1967
Gib mir mal eine URL die schon gesperrt ist. Ich schaue mal ob das fluppt.

Geht auch per PN.

Verfasst: 18.08.2007, 13:26
von Hasenhuf
Michael1967 hat geschrieben:https://www.deineDomain.de/zahlung.htm

Dann muss nur - /zahlung da rein.
Nicht wenn es da noch Seiten/Unterverzeichnisse mit entsprechenden Namen gibt, die gefunden werden sollen.

https://de.selfhtml.org/diverses/robots.htm

Verfasst: 18.08.2007, 21:36
von ramiba
also ich würde das lieber über die htaccess + robots.txt machen das ist sicherer

Re: Seiten sperren

Verfasst: 18.08.2007, 22:26
von naughty
mcd hat geschrieben:Hallo wie kann ich in meinem XTC einzelne Seiten sperren, die google nicht auslesen soll? Danke
Wenn Google einzelne Seiten nicht indexieren soll, dann kannst Du folgenden Metatag im Header der jeweiligen Seite einfügen:

Code: Alles auswählen

<META NAME="GOOGLEBOT" CONTENT="NOINDEX, NOFOLLOW">