Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Ist das doppelter Content?

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
FUXS
PostRank 1
PostRank 1
Beiträge: 19
Registriert: 19.07.2005, 07:53
Wohnort: Wolfach

Beitrag von FUXS » 14.03.2006, 22:46

Hallo,

ich habe mein Forum optimiert, so dass die einzelnen Seiten mit ...\ftopicxxx.html angezeigt werden. Nun habe ich ein RSS-MOD eingebaut und dieseLinks werden jedoch mit ...\viewtopic.php?p=xxx#xxx angesprochen.
Eigentlich müßte ich das RSS-MOD so umschreiben, dass nur noch ...\ftopicxxx.html angezeigt werden, leider bekomme ich das nicht hin.

Dass die SUMA's jedoch nicht beide Links findet, habe ich alle viewtopic.php per robots.txt ausgenommen.

Ist das jetzt doppelter Content oder nicht?

FUXS
[.... oder willst du einen Monsterlink??

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

matin
PostRank 9
PostRank 9
Beiträge: 1427
Registriert: 08.09.2005, 15:16
Wohnort: Grünburg

Beitrag von matin » 14.03.2006, 23:16

soweit ich weiß, kannst du per robots.txt nur verzeichnisse und keine dateien aussperren.
https://suchmaschinentricks.at/ - Ziehen Sie die Aufmerksamkeit im Internet auf sich ...
Kaufe verschiedene Projekte mit entsprechendem Content - Kontaktaufnahme per PN

Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 14.03.2006, 23:29

Wenn Du in der robots.txt

Code: Alles auswählen

User-Agent: *
Disallow: /viewtopic
stehen hast, bekommst Du kein Problem.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

matin
PostRank 9
PostRank 9
Beiträge: 1427
Registriert: 08.09.2005, 15:16
Wohnort: Grünburg

Beitrag von matin » 14.03.2006, 23:39

Chris2005 hat geschrieben:Wenn Du in der robots.txt

Code: Alles auswählen

User-Agent: *
Disallow: /viewtopic
stehen hast, bekommst Du kein Problem.
... dann müsste die url aber so aussehen: www.domain.de/viewtopic/seiteirgendwas.html
https://suchmaschinentricks.at/ - Ziehen Sie die Aufmerksamkeit im Internet auf sich ...
Kaufe verschiedene Projekte mit entsprechendem Content - Kontaktaufnahme per PN

Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 14.03.2006, 23:47

Nein... Mit /viewtopic wird alles gesperrt was mit viewtopic anfaengt... also

https://www.domain.de/viewtopic.php
https://www.domain.de/viewtopic/blah/blup
https://www.domain.de/viewtopic.php?checkthisout
etc.

Bitte keine falschen Infos in Sachen robots.txt posten.

Wenn der Googlebot die robots.txt ignoriert, liegt es daran, dass er sobald er eine Rubrik fuer sich findet, den Rest der robots.txt ignoriert... d.h. die Disallows muessen doppelt definiert werden.

User-Agent: Googlebot
Disallow: ...

und

User-Agent: *
Disallow: ...

Dies gilt inbesondere dann, wenn dynamische URLs fuer den G-Bot gesperrt werden sollen.

ole1210
PostRank 10
PostRank 10
Beiträge: 7464
Registriert: 12.08.2005, 10:40
Wohnort: Olpe

Beitrag von ole1210 » 15.03.2006, 08:20

Klar kannst du per robots.txt auch einzelne Dateien sperren!!!!

FUXS
PostRank 1
PostRank 1
Beiträge: 19
Registriert: 19.07.2005, 07:53
Wohnort: Wolfach

Beitrag von FUXS » 15.03.2006, 11:10

Danke für eure schnelle Hilfe, ich hätte jedoch nun noch ne weitere Frage.

Werden die ..\viewtopicxxx... Links trotzdem als Backlinks gewertet, wenn ich diese per robots.txt sperre?
[.... oder willst du einen Monsterlink??

Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 15.03.2006, 18:09

Werden die ..\viewtopicxxx... Links trotzdem als Backlinks gewertet, wenn ich diese per robots.txt sperre?
Links von aussen auf Deine Seite? Wertlos :) Es sei denn, Du leitest per 301 weiter.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag