Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Klatsche von BigG wegen DC

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
tango
PostRank 2
PostRank 2
Beiträge: 41
Registriert: 16.04.2006, 19:14
Wohnort: Essen

Beitrag von tango » 14.05.2007, 15:39

moin,
ich habe mit mod_rewrite meine Seite vor einiger Zeit aufgewertet ;) . Leider habe ich es nicht geschaft den DC zu vermeiden und nun habe ich die Klatsche bekommen. Alle .html Seiten sind raus :-? Dafür sind die MegaUraltPHPLinks auf Pos1. Ich habe es damals mit der .htaccess versucht, doch das ging nicht wegen doppelten Regeln. Frage: Wie kann ich die .php Links loswerden? Also .htaccess geht ja nicht.
Die Links sehen so aus .de/modul=news.......

Kann man da was mit der robots.txt machen? Das CMS hat keine Unterordner.
Oder vielleicht über die Google-Sitemap (also da wo man jetzt Seiten löschen kann)?

Bin für jeden Tipp dankbar!

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Cash
PostRank 6
PostRank 6
Beiträge: 416
Registriert: 02.11.2005, 15:06

Beitrag von Cash » 14.05.2007, 20:31

Das Problem hatte ich auch mal vor langer Zeit.
Über die robots.txt kann du das Problem beheben.

Beispiel:

User-agent: *
Disallow: /*?
Disallow: /index.php*
Disallow: /modul*

Die Beispiele gehen bei aktueller html Endung. Ansonsten musst du das
an deine dynamischen Urls anpassen.

bara.munchies
PostRank 9
PostRank 9
Beiträge: 2457
Registriert: 09.06.2005, 09:02
Wohnort: Krung Tep

Beitrag von bara.munchies » 14.05.2007, 20:38

wobei das mit der wirdcard teilweise nicht geht. kann man über die url remove konsole sehen, wenn man die url der robots.txt angibt.