Seite 1 von 1
Ist das doppelter Content?
Verfasst: 14.03.2006, 22:46
von FUXS
Hallo,
ich habe mein Forum optimiert, so dass die einzelnen Seiten mit ...\ftopicxxx.html angezeigt werden. Nun habe ich ein RSS-MOD eingebaut und dieseLinks werden jedoch mit ...\viewtopic.php?p=xxx#xxx angesprochen.
Eigentlich müßte ich das RSS-MOD so umschreiben, dass nur noch ...\ftopicxxx.html angezeigt werden, leider bekomme ich das nicht hin.
Dass die SUMA's jedoch nicht beide Links findet, habe ich alle viewtopic.php per robots.txt ausgenommen.
Ist das jetzt doppelter Content oder nicht?
FUXS
Verfasst:
von
Hochwertiger Linkaufbau bei ABAKUS:
- Google-konformer Linkaufbau
- nachhaltiges Ranking
- Linkbuilding Angebote zu fairen Preisen
- internationale Backlinks
Wir bieten
Beratung und
Umsetzung.
Jetzt anfragen:
0511 / 300325-0
Ist das doppelter Content?
Verfasst: 14.03.2006, 23:16
von matin
soweit ich weiß, kannst du per robots.txt nur verzeichnisse und keine dateien aussperren.
Ist das doppelter Content?
Verfasst: 14.03.2006, 23:29
von Chris2005
Wenn Du in der robots.txt
stehen hast, bekommst Du kein Problem.
Verfasst:
von
Content Erstellung von
ABAKUS Internet Marketing
Ihre Vorteile:
- einzigartige Texte
- suchmaschinenoptimierte Inhalte
- eine sinnvolle Content-Strategie
- Beratung und Umsetzung
Jetzt anfragen:
0511 / 300325-0
Re: Ist das doppelter Content?
Verfasst: 14.03.2006, 23:39
von matin
Chris2005 hat geschrieben:Wenn Du in der robots.txt
stehen hast, bekommst Du kein Problem.
... dann müsste die url aber so aussehen:
www.domain.de/viewtopic/seiteirgendwas.html
Ist das doppelter Content?
Verfasst: 14.03.2006, 23:47
von Chris2005
Nein... Mit /viewtopic wird alles gesperrt was mit viewtopic anfaengt... also
https://www.domain.de/viewtopic.php
https://www.domain.de/viewtopic/blah/blup
https://www.domain.de/viewtopic.php?checkthisout
etc.
Bitte keine falschen Infos in Sachen robots.txt posten.
Wenn der Googlebot die robots.txt ignoriert, liegt es daran, dass er sobald er eine Rubrik fuer sich findet, den Rest der robots.txt ignoriert... d.h. die Disallows muessen doppelt definiert werden.
User-Agent: Googlebot
Disallow: ...
und
User-Agent: *
Disallow: ...
Dies gilt inbesondere dann, wenn dynamische URLs fuer den G-Bot gesperrt werden sollen.
Ist das doppelter Content?
Verfasst: 15.03.2006, 08:20
von ole1210
Klar kannst du per robots.txt auch einzelne Dateien sperren!!!!
Verfasst: 15.03.2006, 11:10
von FUXS
Danke für eure schnelle Hilfe, ich hätte jedoch nun noch ne weitere Frage.
Werden die ..\viewtopicxxx... Links trotzdem als Backlinks gewertet, wenn ich diese per robots.txt sperre?
Ist das doppelter Content?
Verfasst: 15.03.2006, 18:09
von Chris2005
Werden die ..\viewtopicxxx... Links trotzdem als Backlinks gewertet, wenn ich diese per robots.txt sperre?
Links von aussen auf Deine Seite? Wertlos

Es sei denn, Du leitest per 301 weiter.