Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Und wieder Doppelter Content

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
Supergrobi
PostRank 4
PostRank 4
Beiträge: 140
Registriert: 22.02.2007, 08:31

Beitrag von Supergrobi » 30.03.2007, 09:46

Hallo zusammen, und wieder mal ne Frage zum DC an euch:

In meinem Oscommerceshop gibts ja die Kategorie und das Produkt.

Nun haben die Sumas meine Seiten so gespidert:

1. ww..blabla.de/kategorie/name/produkt/name
2. ww..blabla.de/produkt/name

Also findet sich ein und die selbe Seite doppelt. Ist datt nicht schlecht im Hinblick auf DC? Wenn ja, gibts da ne Möglichkeit die Sumas davon abzuhalten???

Und ewig grüßt der
Supergrobi

PS: Hatte das Beispiel mit 3ws eingegeben, daraus wurde ein Link der mich auf spielen.de führte... Hääääh?
das forum - https://www.forum-natur.eu/forum-natur
der katalog - https://www.webkatalog-natur.de
der shop - https://www.niem-shop.de
(Linkpartner im Bereich Naturprodukte, Heilpraktiker und Fußpflege gesucht...)

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Andreas I.
PostRank 9
PostRank 9
Beiträge: 1464
Registriert: 18.03.2006, 14:36
Wohnort: Hamburg

Beitrag von Andreas I. » 30.03.2007, 10:08

ja, das ist DC. Du könntest ein Verzeichnis in der robots.txt sperren. Also entweder /produkt oder /kategorie. Oooder Du könntest eine Seitenstruktur aufbauen, die ohne DC auskommt.

Supergrobi
PostRank 4
PostRank 4
Beiträge: 140
Registriert: 22.02.2007, 08:31

Beitrag von Supergrobi » 30.03.2007, 10:20

Oooder Du könntest eine Seitenstruktur aufbauen, die ohne DC auskommt.
Au ja, und wenn du mir jetzt noch sagst, wie man das in Oscommerce hinbekommt, dann wärst du mein persönlicher Messias :D
das forum - https://www.forum-natur.eu/forum-natur
der katalog - https://www.webkatalog-natur.de
der shop - https://www.niem-shop.de
(Linkpartner im Bereich Naturprodukte, Heilpraktiker und Fußpflege gesucht...)

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Supergrobi
PostRank 4
PostRank 4
Beiträge: 140
Registriert: 22.02.2007, 08:31

Beitrag von Supergrobi » 30.03.2007, 11:14

Du könntest ein Verzeichnis in der robots.txt sperren. Also entweder /produkt oder /kategorie.
Ja aber wenn ich /produkt im robot.txt sperre, kann die Suma dann überhaupt noch die Prosukte spidern? Denn dann würde ja die zieladresse ww..blabla./kategorie/produkt/name lauten. Wäre dann das ganze nicht auch gesperrt???
das forum - https://www.forum-natur.eu/forum-natur
der katalog - https://www.webkatalog-natur.de
der shop - https://www.niem-shop.de
(Linkpartner im Bereich Naturprodukte, Heilpraktiker und Fußpflege gesucht...)

Miyamoto
PostRank 1
PostRank 1
Beiträge: 8
Registriert: 13.02.2007, 23:03

Beitrag von Miyamoto » 30.03.2007, 12:52

@Supergrobi,
1. ww..blabla.de/kategorie/name/produkt/name
2. ww..blabla.de/produkt/name

Wenn Deine Produkte jeweils in o.g. Verzeichnissen liegen, dann sperr einfach eins davon per robots.txt. Im nicht gesperrten Verzeichnis befinden sich ja ebenfalls noch diesselben Produkte.
Aber: Nicht jeder Robot hält sich an die .txt - Es reicht, wenn irgendein Robi sich NICHT daran hält und G**gle & Co. zufällig diese Infos auslesen (ohne jemals auf Deine gesperrten Verzeichnisse zugegriffen zu haben).
Hierzu gibt's im Forum genug Beiträge. Abakus' einfach mal ein bisserl.
MfG
Michael

pr_sniper
PostRank 9
PostRank 9
Beiträge: 1766
Registriert: 07.02.2006, 19:21

Beitrag von pr_sniper » 30.03.2007, 15:00

es genügt in der robots.txt der blaba.de:

User-agent: *
Disallow: /k

Alles, was im Root! mit k beginnt, soll nicht aufgenommen werden. Gibt es dagegen Ordner und Dateien, die mit k im Root! beginnen, dann halt

User-agent: *
Disallow: /kategorie

Und die sinnvolleren Short-URLs werden gelistet.

Supergrobi
PostRank 4
PostRank 4
Beiträge: 140
Registriert: 22.02.2007, 08:31

Beitrag von Supergrobi » 30.03.2007, 17:52

Sodele, habe es jetzt mal mit

Disallow: /category/

versucht. Merci für eure Hilfe...
das forum - https://www.forum-natur.eu/forum-natur
der katalog - https://www.webkatalog-natur.de
der shop - https://www.niem-shop.de
(Linkpartner im Bereich Naturprodukte, Heilpraktiker und Fußpflege gesucht...)

ROM
PostRank 4
PostRank 4
Beiträge: 193
Registriert: 25.02.2006, 16:13
Wohnort: Dessau

Beitrag von ROM » 30.03.2007, 19:48

ich frag mich was daran so schlimm is. selbst wenn die zweite seite als DC gewertet wird, wird diese halt einfach nur in den filter nach hinten verlegt, der erst angezeigt wird, wenn du "weitere suchergebnisse anzeigen bla" klickst.

webbox
PostRank 1
PostRank 1
Beiträge: 10
Registriert: 29.03.2007, 21:27

Beitrag von webbox » 30.03.2007, 21:57

Du kannst auch die Seiten mit den Meta Tags sperren.
Dafür musst du im Header folgendes eingeben:
<META NAME="robots" content="noindex, follow">

So wird die Seite nicht in den Suchmaschinen im Index aufgenommen, Links auf der Seite werden aber verfolgt.

balou050701
PostRank 4
PostRank 4
Beiträge: 127
Registriert: 19.11.2006, 13:39

Beitrag von balou050701 » 31.03.2007, 23:59

was ich mich die ganze zeit frage:

bei zwei unterseiten mit dc wird doch nur eine unterseite nach hinten verbannt... die eine seite bleibt doch weiter vorne

die komplette domain trägt doch keine schaden durch dc auf unterseiten

pr_sniper
PostRank 9
PostRank 9
Beiträge: 1766
Registriert: 07.02.2006, 19:21

Beitrag von pr_sniper » 01.04.2007, 11:40

@supi: oben hieß das ungeliebte Verzeichnis noch "kategorie" ...

Allgemein wird eine (komplette HTML-) Datei durch ihren konkreten Platz im Internet identifiziert, durch ihre URL.

Wenn es aber zwei oder mehr URLs zu einer Datei gibt, die durch mangelhafte Scripte oder aber gewollt produziert werden, entsteht für uns Besucher unnötiger, unnützer, zum Teil nervender Spam. Weshalb sollte das Google fördern?

Eventuell ist es für ROM und balou sinnvoll, sich erst einmal etwas einzulesen: https://www.google.de/support/webmaster ... swer=35769

@webbox: das "noindex" ist natürlich völlig falsch, mein Gott- du schließt dadurch die Aufnahme jeder so gezeichneten HTML-Seite aus, egal, ob der Robot über die erste, die zweite oder tausendste URL für diese Datei kommt (oft gibts ja noch Session-IDs, Print-Dateien usw. aber auch externe Datendiebe/Kopierer) .

twitch
PostRank 9
PostRank 9
Beiträge: 1222
Registriert: 09.04.2005, 14:01

Beitrag von twitch » 03.04.2007, 20:16

balou050701 hat geschrieben:was ich mich die ganze zeit frage:

bei zwei unterseiten mit dc wird doch nur eine unterseite nach hinten verbannt... die eine seite bleibt doch weiter vorne

die komplette domain trägt doch keine schaden durch dc auf unterseiten
Das ist defibitiv richtig... DC auf einer Domain ist nicht allzuschlimm und die Domain wird nicht verbannt.
Ärgerlich wird es, wenn man 2 Domains mit dem selben Inhalt hat, dann wird meist die ältere von beiden gekickt und die neue im Suchindex aufgeführt... was natürlich weh tut :-)
... gibt es da eigenltich ne Möglichkeit, dass die alte Domain weider in den Index kommt? Oder bleibt die so lange draußen, bis man den Inhalt ändert?

SEO - History, Tools, Videos, Downloads und mehr auf https://www.seo-ranking-tools.de/

balou050701
PostRank 4
PostRank 4
Beiträge: 127
Registriert: 19.11.2006, 13:39

Beitrag von balou050701 » 03.04.2007, 22:09

@twitch

wie kann ich denn dc vermeiden bei einem online shop

erhalte die fertigen texte von meinem lieferanten... diese unterseiten sind in php und schlecht für die suchmaschienen zu optimieren soweit ich weiss

möchte seine domain nicht zerschießen oder seinem ranking schaden

ich möchte nicht über den shop gefunden werden

robots auf nofollow stellen oder?

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag