Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Seiten sperren

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
mcd
PostRank 4
PostRank 4
Beiträge: 121
Registriert: 27.04.2007, 09:41

Beitrag von mcd » 16.08.2007, 11:07

Hallo wie kann ich in meinem XTC einzelne Seiten sperren, die google nicht auslesen soll? Danke

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

FL4PJ4CK
PostRank 4
PostRank 4
Beiträge: 132
Registriert: 06.05.2007, 10:00
Wohnort: Baden-Baden

Beitrag von FL4PJ4CK » 16.08.2007, 11:10

robots.txt
LG, Nico

Bild

mcd
PostRank 4
PostRank 4
Beiträge: 121
Registriert: 27.04.2007, 09:41

Beitrag von mcd » 16.08.2007, 11:14

danke, und wie???

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Thomas B
PostRank 9
PostRank 9
Beiträge: 1810
Registriert: 04.12.2005, 12:50

Beitrag von Thomas B » 16.08.2007, 11:17

User-agent: *

Disallow: /deine-unterseite

luzie
PostRank 10
PostRank 10
Beiträge: 4228
Registriert: 12.07.2007, 13:43
Wohnort: Hannover, Linden-Nord

Beitrag von luzie » 16.08.2007, 11:18

kannst auch auf den seiten diesen metatag einfügen:

<meta name="robots" content="noindex">
Bilduzie - [url=httpss://plus.google.com/+HerbertSulzer/about]Google Official Bionic Top Contributor on Google Webmaster Central[/url]

mcd
PostRank 4
PostRank 4
Beiträge: 121
Registriert: 27.04.2007, 09:41

Beitrag von mcd » 16.08.2007, 11:22

meine robots sieht jetzt so aus


User-agent: *
Disallow: /html/shop/media/content/agb.htm
Disallow: /html/shop/media/content/agb2.htm
Disallow: /html/shop/media/content/impressum.htm
Disallow: /html/shop/media/content/service.htm
Disallow: /html/shop/media/content/versand.htm
Disallow: /html/shop/media/content/zahlung.htm


passt oder? Oder sollte man die URLs anstatt den Dateien verwenden?

Noch eine Frage: Im Explorer komme ich zu diesen Seiten auch OHNE /html/shop/ ... sollte ich das weglassen?

mcd
PostRank 4
PostRank 4
Beiträge: 121
Registriert: 27.04.2007, 09:41

Beitrag von mcd » 16.08.2007, 15:13

hilfe?

Michael1967
PostRank 9
PostRank 9
Beiträge: 2158
Registriert: 26.10.2005, 23:51

Beitrag von Michael1967 » 16.08.2007, 15:22

Hilfe? Na wie sehen deine Links denn aus?

Hilfe!

mcd
PostRank 4
PostRank 4
Beiträge: 121
Registriert: 27.04.2007, 09:41

Beitrag von mcd » 16.08.2007, 15:24

Links? Ich dachte man muss die Datei sperren und nicht die Links in der Robots angeben?

Was denn nun? URLs oder Datein? DIe sind im XTC ja verschieden.

Im Explorer komme ich zu diesen Seiten auch OHNE /html/shop/ ... sollte ich das weglassen?

Michael1967
PostRank 9
PostRank 9
Beiträge: 2158
Registriert: 26.10.2005, 23:51

Beitrag von Michael1967 » 16.08.2007, 15:27

https://www.deineDomain.de/zahlung.htm

Dann muss nur - /zahlung da rein.

mcd
PostRank 4
PostRank 4
Beiträge: 121
Registriert: 27.04.2007, 09:41

Beitrag von mcd » 16.08.2007, 15:29

zum Beispiel ist der Link für Zahlunginfos im Shop unter

https://www.domain.de/zahlungsmoeglichkeiten:_:104.html AUF DER SERVER aber unter /html/shop/media/content/zahlung.htm

welches nehmen?

Michael1967
PostRank 9
PostRank 9
Beiträge: 2158
Registriert: 26.10.2005, 23:51

Beitrag von Michael1967 » 16.08.2007, 15:31

Gib mir mal eine URL die schon gesperrt ist. Ich schaue mal ob das fluppt.

Geht auch per PN.

Hasenhuf
PostRank 9
PostRank 9
Beiträge: 2840
Registriert: 26.12.2005, 22:22

Beitrag von Hasenhuf » 18.08.2007, 13:26

Michael1967 hat geschrieben:https://www.deineDomain.de/zahlung.htm

Dann muss nur - /zahlung da rein.
Nicht wenn es da noch Seiten/Unterverzeichnisse mit entsprechenden Namen gibt, die gefunden werden sollen.

https://de.selfhtml.org/diverses/robots.htm

ramiba
PostRank 5
PostRank 5
Beiträge: 302
Registriert: 11.12.2006, 23:34

Beitrag von ramiba » 18.08.2007, 21:36

also ich würde das lieber über die htaccess + robots.txt machen das ist sicherer

naughty
PostRank 2
PostRank 2
Beiträge: 46
Registriert: 17.02.2006, 15:58

Beitrag von naughty » 18.08.2007, 22:26

mcd hat geschrieben:Hallo wie kann ich in meinem XTC einzelne Seiten sperren, die google nicht auslesen soll? Danke
Wenn Google einzelne Seiten nicht indexieren soll, dann kannst Du folgenden Metatag im Header der jeweiligen Seite einfügen:

Code: Alles auswählen

<META NAME="GOOGLEBOT" CONTENT="NOINDEX, NOFOLLOW">

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag