Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

mod rewrite - DC verhindert?

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
kh
PostRank 4
PostRank 4
Beiträge: 176
Registriert: 18.01.2006, 08:54

Beitrag von kh » 20.03.2006, 08:25

Ich habe dynamische URL's wie z.B. https://www.domain.de/?ASp=Deutsch&LSp=Englisch und möchte diese mit folgenden Code umschreiben.

Code: Alles auswählen

RewriteEngine On
RewriteCond %{QUERY_STRING} ^ASp=Deutsch&LSp=Englisch\.php$
RewriteRule ^index$ http://domain.de/englisch.html? [R=301,L]
Da ich aber Anfänger bin, möchte ich wissen ob auch damit die Gefahr von DC gebannt ist? Es reicht doch R=301??

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


larsneo
PostRank 4
PostRank 4
Beiträge: 178
Registriert: 03.01.2005, 17:21
Wohnort: Schwäbisch Gmünd

Beitrag von larsneo » 20.03.2006, 09:53

zumindestens bei tante-g habe ich mit einer simplen regel in der robots.txt gute erfahrungen gemacht:

Code: Alles auswählen

User-agent: Googlebot
Disallow: /*?
damit werden dynamische urls (alles mit ?) von der indexierung ausgeschlossen.
grüsse aus dem wilden süden
andreas <larsneo>
..::[zikula ]::.. ..::[cms-sicherheit.de]::..

kh
PostRank 4
PostRank 4
Beiträge: 176
Registriert: 18.01.2006, 08:54

Beitrag von kh » 20.03.2006, 10:16

Ich möchte nämlich sowieso nicht alle dynamischen URL's umschreiben, sonder nur die thematisch wichtigen und keine z.B. Kontakt-Seite, etc.

Dann wäre das auch eine Möglichkeit mit dieser anweisung in der robots, oder? einfach die restlichen dyn. URLs ausschließen. Funktioniert das so?

kh
PostRank 4
PostRank 4
Beiträge: 176
Registriert: 18.01.2006, 08:54

Beitrag von kh » 20.03.2006, 15:37

ok, das mit robots scheint nicht zu klappen, da angeblich Google diese immer öfter ignoriert.

Stimmt das wirklich?
Dann ist das ziemlich blöd. Ich will von meinen mehreren hundert Seiten mit dynamischen URL's nur ca. 20 mit mod rewrite umschreiben und den Rest für die Robots sperren. Wie könnte ich das sonst machen???

Cash
PostRank 6
PostRank 6
Beiträge: 416
Registriert: 02.11.2005, 15:06

Beitrag von Cash » 20.03.2006, 16:19

kh hat geschrieben:ok, das mit robots scheint nicht zu klappen, da angeblich Google diese immer öfter ignoriert.
Wie kommst du darauf das Google das ignoriert?
Auch bei mir funktioniert das ausschließen der dynamischen Urls per robots.txt ohne Probleme.
larsneo hat geschrieben:Disallow: /*?
greetz
Cash

kh
PostRank 4
PostRank 4
Beiträge: 176
Registriert: 18.01.2006, 08:54

Beitrag von kh » 20.03.2006, 16:30

das habe ich in einem anderen Forum gelesen. Ich weiß jetzt auch nicht ob das stimmt oder nicht! Also wenns hier schon 2 bestätigen, dann wirds wohl stimmen!

Also kann ich es ruhig so machen: ein paar Seiten mit mod rewrite suchmaschinenfreundlich machen, den Rest per robots.txt ausschließen?

guppy
PostRank 9
PostRank 9
Beiträge: 2820
Registriert: 08.12.2003, 15:57
Wohnort: schwedt

Beitrag von guppy » 20.03.2006, 18:08

Werden die Urls denn nicht gespidert, oder warum willst du die umschreiben.
Derzeit sehe ich oft nicht mehr so viel Sinn darin per rewrite umzuschreiben, weil die Problematik des "Nichtspiderns" meiner Meinung nach nicht mehr existiert.

kh
PostRank 4
PostRank 4
Beiträge: 176
Registriert: 18.01.2006, 08:54

Beitrag von kh » 21.03.2006, 08:05

doch, die werden schon gespidert, aber da die Seite jetzt schon seit 2 Jahren irgendwo bei Platz 200 steht, möchte ich das mal probieren! vielleicht sind doch die URL's der Grund!

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag