Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Kann mir eine solche Robots.txt schaden?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
SonnyB
PostRank 3
PostRank 3
Beiträge: 65
Registriert: 03.05.2004, 14:25

Beitrag von SonnyB » 13.08.2005, 13:07

Hallo zusammen,

in meinem phpBB-Forum habe ich auch mit dem Thema "Doppelten Content" zu kämpfen. Ich habe bereits einige Beiträge dazu hier gelesen, bin aber nicht unbedingt schlauer geworden.

Das Problem

Durch den SEO MOD habe ich doppelte Seiten, wie:

Code: Alles auswählen

thema1111.html
und

Code: Alles auswählen

thema1111-0.html
Dies liegt an der Navigation von phpbb.

Ein weiteres Problem liegt in solchen Links

Code: Alles auswählen

thema1111-0-asc-15.html
die den gleichen Inhalt darstellen, wie

Code: Alles auswählen

thema1111-0-15.html
Ich habe nun folgende Lösung gefunden, bin aber noch skeptisch:

Code: Alles auswählen

Disallow: /forum/thema*-0.html$
Disallow: /forum/thema*asc*.html$
Hat jemand Erfahrungen damit? Kann ich das so ohne weiteres in die Robots.txt Datei einbauen oder kann ich damit gar was kaputt machen?

Danke. :wink:

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

bydlo
PostRank 9
PostRank 9
Beiträge: 2209
Registriert: 11.12.2004, 01:03
Wohnort: Berlin

Beitrag von bydlo » 13.08.2005, 16:35

ahoi ,
das liegt an dem seomod.
dort solltest du das problem auch fixen weil in diesem fall die lösung mit der robots reine flickschusterei wäre.
hatte das problem in kleinerem ausmass auch und mir wurde hier
https://www.abakus-internet-marketing.d ... ight-.html
geholfen
gruss axel
PS: Suchfunktion :wink:

SonnyB
PostRank 3
PostRank 3
Beiträge: 65
Registriert: 03.05.2004, 14:25

Beitrag von SonnyB » 13.08.2005, 17:21

Hi Axel,

nein der MOD ist sauber implementiert. Kannte deinen Beitrag schon.

Es geht nur darum, die doppelten Seiten rauszubekommen.

Es gibt 2 Möglichkeiten:

(Tiefgreifende) Veränderungen an der phpBB Software

oder

Ausschluss durch Robots.txt

Wer hat hier ne Antwort? :D