Kann mir eine solche Robots.txt schaden?
Verfasst: 13.08.2005, 13:07
Hallo zusammen,
in meinem phpBB-Forum habe ich auch mit dem Thema "Doppelten Content" zu kämpfen. Ich habe bereits einige Beiträge dazu hier gelesen, bin aber nicht unbedingt schlauer geworden.
Das Problem
Durch den SEO MOD habe ich doppelte Seiten, wie:
und
Dies liegt an der Navigation von phpbb.
Ein weiteres Problem liegt in solchen Links
die den gleichen Inhalt darstellen, wie
Ich habe nun folgende Lösung gefunden, bin aber noch skeptisch:
Hat jemand Erfahrungen damit? Kann ich das so ohne weiteres in die Robots.txt Datei einbauen oder kann ich damit gar was kaputt machen?
Danke.
in meinem phpBB-Forum habe ich auch mit dem Thema "Doppelten Content" zu kämpfen. Ich habe bereits einige Beiträge dazu hier gelesen, bin aber nicht unbedingt schlauer geworden.
Das Problem
Durch den SEO MOD habe ich doppelte Seiten, wie:
Code: Alles auswählen
thema1111.html
Code: Alles auswählen
thema1111-0.html
Ein weiteres Problem liegt in solchen Links
Code: Alles auswählen
thema1111-0-asc-15.html
Code: Alles auswählen
thema1111-0-15.html
Code: Alles auswählen
Disallow: /forum/thema*-0.html$
Disallow: /forum/thema*asc*.html$
Danke.
