Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

2 kleine Fragen zum robots.txt

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
lazy74
PostRank 4
PostRank 4
Beiträge: 107
Registriert: 06.02.2008, 11:52

Beitrag von lazy74 » 23.02.2008, 13:57

Hallo,

ich habe diverse Seiten, welche ich mit Robots.txt ausschließen möchte.
Alle diese Seiten haben in der URL den Begriff "step3".

Kann ich die mit folgendem Befehl ausschließen?
Disallow: /*_step3_*.html$


Dann noch ne Frage: Auf jeder meiner Seiten steht im Header ein gewisser Text, den ich von Google jedoch nicht als Content einlesen lassen möchte.
Kann ich einzelne Textpassagen durch einen Befehl (ähnlich "nofollow") von der Indizierung ausschließen?

THX

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Andreas84
PostRank 6
PostRank 6
Beiträge: 459
Registriert: 11.08.2004, 06:40
Wohnort: Thalmässing

Beitrag von Andreas84 » 23.02.2008, 15:05

Zu deiner 2. Fragen:
Mit Codes in Textpassagen kann man das meines Wissens nicht. Aber meld dich bei "Google webmaster Tools" an. Dort kannst du bestimmen, ob Teile deines Contents nicht gespidert werden sollen.

Gruß,
Andi

Arnfred
PostRank 1
PostRank 1
Beiträge: 26
Registriert: 03.02.2008, 16:23
Wohnort: Berlin

Beitrag von Arnfred » 23.02.2008, 16:18

Binde den Text per JavaScript ein und Google wird ihn nicht einlesen.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


lazy74
PostRank 4
PostRank 4
Beiträge: 107
Registriert: 06.02.2008, 11:52

Beitrag von lazy74 » 23.02.2008, 17:30

Andreas84 hat geschrieben:Zu deiner 2. Fragen:
Mit Codes in Textpassagen kann man das meines Wissens nicht. Aber meld dich bei "Google webmaster Tools" an. Dort kannst du bestimmen, ob Teile deines Contents nicht gespidert werden sollen.

Gruß,
Andi
Wo genau kann ich das denn da einstellen? Angemeldet bin ich da...

Kann mir jemand noch eine Antwort zu Frage 1 geben? Nicht, dass ich mit dem Befehl alle meine Seiten sperre, die mit .html enden...

Arnfred
PostRank 1
PostRank 1
Beiträge: 26
Registriert: 03.02.2008, 16:23
Wohnort: Berlin

Beitrag von Arnfred » 24.02.2008, 09:03

Du wählst unter Tools "robot.txt analysieren".

Da kannst du gefahrlos testen ob und wie Google auf Einträge reagiert.

chris21
PostRank 9
PostRank 9
Beiträge: 2758
Registriert: 10.04.2005, 18:17

Beitrag von chris21 » 24.02.2008, 14:59

Kurz zu Deiner ersten Frage: nur Google und Yahoo ist in der Lage, diese Anweisung zu verstehen.

Also dafür nicht:

User-agent: *
Disallow /*_step3_*.html$

sondern

User-agent: GoogleBot
Disallow /*_step3_*.html$

und

User-agent: Slurp
Disallow /*_step3_*.html$

Unklar ist für mich gerade, wie der msnbot mit der Regel umgeht, da dort nur eine Wildcard-Regelung für Aussperren bestimmter Dateien nach Dateiendung über Wildcard gegeben wird

(User-agent: msnbot

Disallow: /*.[Dateierweiterung]$

(das "$"-Zeichen ist erforderlich) )

Ansonsten Arnfreds Tipp befolgen und für Google die Regeln bei der Webmaster Tools Console von Google überprüfen.

Dazu muss man allerdings auch sagen, dass Google da manchmal dubiose widersprüchliche Meldungen liefert (GWT liefert über Robots.txt Analyse, dass eine Seite zugelassen ist, zugleich meldet die Crawler-Statistik, dass genau jene Seite aufgrund einer Robots.txt-Regel nicht indexiert wird.)

lazy74
PostRank 4
PostRank 4
Beiträge: 107
Registriert: 06.02.2008, 11:52

Beitrag von lazy74 » 24.02.2008, 15:27

Hi,

das mit dem Blockieren läuft nun.

Danke...
:D :D

Jetzt muss ich nur noch den unerwünschten Text als Java einbauen

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag