Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Doppelte title tags = Duplicate Content? Permalink-Problem

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
timtuco
PostRank 1
PostRank 1
Beiträge: 6
Registriert: 03.10.2008, 19:08

Beitrag von timtuco » 03.10.2008, 19:25

Hi zusammen,

Habe ne frage, betrifft Permalinks, Serendipity und Duplicate Content.
Nachdem ich in Google webmaster tools darauf aufmerksam gemacht worden bin, dass ca 50 doppelte title tags auf meiner "neuen" site vorhanden sind, habe ich gemerkt, dass tatsächlich zu allen Beiträgen, zu denen ich per hand über ein permalinkplugin die url festgelegt habe, immer auch noch eine zweite url vorhanden ist. In Google rankt je nachdem, bei einigen Beiträgen "meine" url, bei anderen die andere version besser. Lange Rede kurzer Sinn: Seh ich das richtig, dass 2 Urls für ein und dieselbe Seite = DUplicate Content ergibt und somit unbedingt verhindert werden sollte, bzw. nachträglich eine url entfernt werden sollte? Falls ja, wie? per htaccess, robots...? oder ist doppelter title tag einfach nur n kosmetikfehler und sollte mich nicht weiter stören...
die zweite damit zusammenhängende frage ist: Wenn ich das permalinkplugin nun nicht mehr benutze, hat das zur folge, dass ich keine plinks mehr manuell erstellen kann und somit die "Füllwörter" nicht mehr aus den urls rausnehmen kann.
statt "neuer-iphone-konkurrent.html" würde dann halt "/heute-morgen-gabs-wieder-einen-neuen-iphone-konkurrent.hmtl" als url vorhanden sein. (Also immernoch ein permalink, aber ein automatisch erstellter, der länger ist und neben den Keywörtern auch die Füllwörter beinhaltet - ist das arg schlechter als die auf Keywörter fukosierte kurzversion?
Was würdet Ihr an meiner Stelle machen?? :roll:
hier ein beispiel:

https://ds-spiele.net/guitar-hero-on-to ... tz-ds.html (mit permalinkplugin manuell erstellt)

https://ds-spiele.net/Guitar-Hero-On-To ... DS-35.html (vom cms aufgrund der konfigurationseinstellungen automatisch und zusätzlich erstellt)

Um es vorwegzunehmen, Serendipity find ich echt super, also das CMS wechseln ist für mich keine alternative :D

Über Ideen, Hinweise, Vorschläge würde ich mehr sehr freuen!

Grüße Tim
:D

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

timtuco
PostRank 1
PostRank 1
Beiträge: 6
Registriert: 03.10.2008, 19:08

Beitrag von timtuco » 04.10.2008, 22:12

re, nochma ne frage ;-)

und zwar hab ich nun vor das problem mit den doppelten title tags durch weiterleitungen zu regeln; ist das realistisch oder unsinn ?

dachte mir, dass ich vielleicht die eine url version auf die andere weiterleiten könnte und damit das problem behoben ist:
rewrite http-url-1 http-url-2 [L,QSA,R=301]
wär cool, wenn mir jem. sagen koennte ob das das prob löst; in der robots.txt müsste ich ja dann nix mehr regeln oder ?
bin n bisschen verwirrt mittlerweile was die ganze angelegenheit angeht, aber will die sache unbedingt in griff kriegen - 50 doppelte title tags sucken und sind glaub gar nicht cool ;)

greets Timtuco

SeriousBadMan
PostRank 10
PostRank 10
Beiträge: 4005
Registriert: 16.06.2008, 22:26
Wohnort: Welt

Beitrag von SeriousBadMan » 05.10.2008, 19:16

kommt auf den arbeitsaufwand (zahl der urls) an.

die von die vorgeschlagene lösung (301 weiterleitung) ist aber an sich suchmaschinenfreundlich und lölst das problem, wenn du dir die arbeit machen willst, immer die .htaccess zu ändern, wenn du nen neuen artikel schreibst.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

timtuco
PostRank 1
PostRank 1
Beiträge: 6
Registriert: 03.10.2008, 19:08

Beitrag von timtuco » 05.10.2008, 19:48

Hi SeriousBadMan,
ging mir jetzt ers mal darum, die rund 50 vorhandenen doppelten urls in griff zu bekommen und die würde ich dann per htaccess abarbeiten. Nur leider klappt die Weiterleitung nicht - bin da aber auch nicht gerade der held in sachen coding ;-) bzw. blutiger anfänger. Hab das Ganze so probiert:
RewriteRule ^Guitar-Hero-On-Tour-Bill-Kaulitz-Gang-erobern-unsern-DS-35.html$ /guitar-hero-on-tour-bill-kaulitz-ds.html [L,QSA,R=301]

funktioniert nur leider nicht. Kannste mir da n Tipp geben ?

gruss tim

P.S. andere fälle von dup.content kann ich ja auch per robots.txt beheben, indem ich bestimmte urls fürn crawler auf disallow stelle, oder ?

timtuco
PostRank 1
PostRank 1
Beiträge: 6
Registriert: 03.10.2008, 19:08

Beitrag von timtuco » 05.10.2008, 21:17

habs raus
lag an der zeile: RewriteRule (.*\.html?) index.php?url=/$1 [L,QSA]
hab zwar nur ne ungefähre ahnung, was sie bedeutet, aber die ganzen umleitungen für die urls mussten vor die zeile damits klappt ;-)

SeriousBadMan
PostRank 10
PostRank 10
Beiträge: 4005
Registriert: 16.06.2008, 22:26
Wohnort: Welt

Beitrag von SeriousBadMan » 07.10.2008, 01:39

ansonsten gibts hier im forum ne "coding" ecke, da frag ich auch immer wegen .htaccess ;)

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag