Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Umgehung / Alternative zu mod_rewrite

Mehrere Domains, Domain-Umzug, neue Dateinamen, 301/302
Neues Thema Antworten
Weightweenie
PostRank 1
PostRank 1
Beiträge: 6
Registriert: 15.04.2011, 15:48

Beitrag von Weightweenie » 15.04.2011, 16:00

Hallo erstmal!
Also bin neu hier im Forum (welcome all :D ) und habe auch gleich mal ein Anliegen!

Und zwar bin seit längerem am überlegen, das Shopsystem des Onlineshops, bei dem ich arbeite, umzuschreiben (-> Speaking URLs, um eben Keywords in die URL reinzubekommen).
Jedoch ist das beinem in die Jahre gekommenen Shopsystem (in welches man sich auch noch reindenken müsste), mit viel Zeitaufwand verbunden.
Heute is mir ne Alternative in den Sinn gekommen, bin mir jedoch nicht 100%ig sicher, ob das ein Problem mit duplicate content geben könnte.

Ich erzähl mal:
Wir haben viele Produkt Detailseiten. Erreichbar sind die (so werden sie also auch von den robots erfasst), durch eine suchen.php datei (Ergebnisliste) sowie eine product_list.php (Ergebnisliste). Jetzt habe ich mir überlegt, dass man bei diesen beiden Dateien einfach statt wie derzeit die KategorieID + die ProduktID einfach noch den Produktname in die Url schreibt (also den ...com/product_detail.php?catid=xyz&pid=zyx&pname=Hersteller-Name-Sonstiges).
Diese übergebene Variable hat also keinerlei Sinn, ausser dass bei den Produktdetail Seiten noch die Keywords in der URL stehen (und diese Seiten sollen ja bei Google möglichst gut ranken).

Jetzt eben die Frage, ob das Google quasi als duplicate content sieht, wenn da einfach so eine weitere Variable in der Domain vorkommt.


Viele Grüße

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Pompom
PostRank 10
PostRank 10
Beiträge: 3751
Registriert: 10.09.2004, 16:38

Beitrag von Pompom » 15.04.2011, 16:44

Hi,

und ebenfalls welcome.
Duplicate Content mit was? Dazu müssten doppelte Seiten mit gleichem Inhalt vorliegen, wenn jede URL jedoch im System nur ein mal da ist, gibt es nichts duplicate.
Sollten schon (alte) Url bei G. gelistet sein, würde sich da ein Error 404 anbieten, lässt sich ja auch einfach programmtechnisch umsetzen.

Wenn Du entsprechende "sprechende" Urls bastelst, ist es jedoch nicht (nur) mit der URL getan, denke gleich noch an Title Tag usw.

Gruß Pompom

Weightweenie
PostRank 1
PostRank 1
Beiträge: 6
Registriert: 15.04.2011, 15:48

Beitrag von Weightweenie » 15.04.2011, 17:08

naja ich denk mir halt, der robot hat jetzt ja alle Detailseiten noch mit der alten URL im index... dann kommt er zukünftig wieder vorbei, und sieht, dass es eben neue urls gibt, die nimmt er auch auf in den index (wobei sich die neuen URLs nur in einer zusätzlichen variable unterscheiden)... er hat also zu jeder seite 2 urls im index (oder liege ich da falsch?)