Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

robots

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
Phantom20
PostRank 6
PostRank 6
Beiträge: 463
Registriert: 11.01.2006, 13:39

Beitrag von Phantom20 » 20.02.2006, 11:40

Hallo,

ich habe in meinem Forum ein Problem mit dupliacte content bekommen nach vielen vielen Monaten. So langsam hat aber google drauf reagiert und handelt, daher muss ich ebenso handeln. Problem bei dieser mod_rewrite Anpassung in meinem Forum war, dass für jeden neuen post eine neue url für den Thread generiert worden ist.

Ich habe nun folgende robots.txt hochgeladen um einige urls auszuschließen. Ist das so richtig?

User-agent: * Disallow:
Disallow: /redir.php
Disallow: /print/
Disallow: /firstnewpost/
Disallow: /nextoldest/
Disallow: /nextnewest/
Disallow: /post/


Danke

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Hasenhuf
PostRank 9
PostRank 9
Beiträge: 2840
Registriert: 26.12.2005, 22:22

Beitrag von Hasenhuf » 20.02.2006, 16:18

Phantom20 hat geschrieben:Problem bei dieser mod_rewrite Anpassung in meinem Forum war, dass für jeden neuen post eine neue url für den Thread generiert worden ist.
Fehlfunktion oder soll das so sein? Bei letzterem würde ich eine andere Variante einbauen.

Zum Problem kann ich nichts sagen aber es währe schon mal hilfreich die Forensoftware zu nennen (wenn sie sich den Eingeweihten nicht durch die Verzeichnisnamen offenbart).

Phantom20
PostRank 6
PostRank 6
Beiträge: 463
Registriert: 11.01.2006, 13:39

Beitrag von Phantom20 » 22.02.2006, 17:20

Hallo,

der hack war einfach an dieser Stelle schlecht durchdachte, pro Beitrag von jemandem innerhalb eines threads gabs eine neue url:

www.domain.de/post/postid/.....html

Somit hatte ein thread mit mehreren beiträgen mehrere urls, daher will ich paar Verzeichnisse nun einfach aussperren.

Ist meine robots.txt so richtig?

User-agent: *

Disallow: /print/
Disallow: /nextnewest/
Disallow: /nextoldest/
Disallow: /firstnewpost/
Disallow: /post/
Disallow: /redir.php

Ich möchte dass googlebot alle Seiten spidert außer die unten angegebenen Verzeichnisse.

Danke.