Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Mambo, sef und Double Content

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
cren
PostRank 6
PostRank 6
Beiträge: 379
Registriert: 04.06.2005, 16:30

Beitrag von cren » 26.08.2005, 14:08

Hallo liebe Leute,

ich arbeite im Moment an einem Projekt, welches auf dem CMS Mambo basiert. Dafür bastle ich eigene Komponenten und ein eigenes SEF-System damit die URLs schön aussehen :)

Was mich im Moment beschäftigt ist folgendes:
Man kommt auf eine Seite oftmals über verschiedene Links (verschiedene Parameter). Das ist nötig, um die Seite dann minimal anzupassen (z.b. weitere Links auf der Seite ein- oder auszublenden). Die Änderungen sind aber so minimal, das ich fürchte Google könnte das als Double Content sehen.

Meine Überlegung ist nun folgende: Ich forme nur die Links um, welche lediglich die ID des anzuzeigenden Inhalts enthalten. Weitere Links, welche zusätzliche Parameter enthalten lasse ich (auch mit eingeschaltetem SEF-System) mit index.php?option=com.... usw. stehen.

Um Double Content auszuschliessen möchte ich den Spidern gern die index.php komplett verbieten. Die Frage ist nun: Was ist am sichersten - in Bezug auf den Ausschluss und die "Gnade" des einlesens für den Rest? Sollte ich in die robots.txt einfach Disallow index.php schreiben? Oder das ganze per .htaccess ausschliessen? Oder habt ihr noch ne ganz andere Idee?

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Diarmiud
PostRank 3
PostRank 3
Beiträge: 76
Registriert: 06.03.2003, 20:27
Wohnort: Lüneburg

Beitrag von Diarmiud » 26.08.2005, 19:28

Warum nimmst du nicht SEF-Advance oder eine freie URL-Rewrite-Komponente für Mambo? Man muss sich zwar an ein paar Konventionen halten, ich habe damit aber gut Erfahrungen gemacht.

cren
PostRank 6
PostRank 6
Beiträge: 379
Registriert: 04.06.2005, 16:30

Beitrag von cren » 26.08.2005, 20:53

Hab SEF-Advance bei einem anderen System im Einsatz, finde es auch ganz nett. Allerdings werden ja dort auch die benötigten Parameter mit in die URL eingebaut. Und das löst noch nicht mein Double Content Problem :(

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Diarmiud
PostRank 3
PostRank 3
Beiträge: 76
Registriert: 06.03.2003, 20:27
Wohnort: Lüneburg

Beitrag von Diarmiud » 28.08.2005, 09:19

Ich sehe gar keine Parameter in der URL.... höchstens bei anderen Komponenten - oder reden wir aneinander vorbei?

bugscout
PostRank 9
PostRank 9
Beiträge: 2602
Registriert: 23.06.2003, 12:24

Beitrag von bugscout » 28.08.2005, 11:39

moin moin,

disallow index.php ist disallow index.php und nicht
dissallow index.php?option=com_content&task=blogcategory&id=13&Itemid=32

kannst ja mal die wildcards testen: disallow index.php*$
die versteht aber nicht jeder.

ich würde aber eher die links zum double content beseitigen
entweder in javascript links umwandeln oder rel-nofollow oder umschreiben

javascript hab ich mal mit einem phpbb gemacht, da können die mit javascript aus jetzt nicht mehr umblättern und die profile ansehen und die mitgliederliste und ....,
aber dafür ist das verhältnis von schrott zu content (in einem nichtmodifizierten phpbb ~8:1) auf moderate 1:0,7 gefallen.

grüsse

cren
PostRank 6
PostRank 6
Beiträge: 379
Registriert: 04.06.2005, 16:30

Beitrag von cren » 29.08.2005, 21:24

@Diarmiud: Ich meinte eigene Komponenten, nicht die Core-Komponenten

@bugscout: Das mit den Wildcards werd ich mal testen, danke. Weisst du ob Google damit klarkommt? Der ganze Aufwand ist ja eh nur für Google, anderen Suchmaschinen ist der Double Content ja eh egal, oder? Ganz beseitigen Kann ich die Links nicht, da ich bestimmte Parameter wie oben gesagt, nur manchmal brauche...

bugscout
PostRank 9
PostRank 9
Beiträge: 2602
Registriert: 23.06.2003, 12:24

Beitrag von bugscout » 29.08.2005, 23:10

moin cren

gab gerade noch einen weiteren tipp

User-Agent: Googlebot
Disallow: /*?

was andere zu double content sagen weiss ich nicht, da ich ihn grundsatzlich vermeide.

grüsse

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag