Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Mod-rewrite Verständnisfrage

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
kh
PostRank 4
PostRank 4
Beiträge: 176
Registriert: 18.01.2006, 08:54

Beitrag von kh » 11.03.2006, 09:59

Ich möchte die dynamischen URLs meiner Website mit mod-rewrite in statische URLs umschreiben. Da diese Website weit mehr als 100 Seiten hat, möchte ich es vermeiden, alle URLs zu umschreiben, da ich dann sehr viele Links ändern muss.

Macht es Sinn, nur die URL's zu umschreiben, die wirklich relevant sind bezüglich Inhalt und die "unwichtigen" URLs wie z.b. Impressum dynamisch zu lassen?
Soll man dann die dynamischen URLs per robots.txt ausschließen? Mit einer Sitemap wird das nicht funktionieren, da sich die SUMA nicht zwingend daran halten muss, oder??

P.s. Die Seite ist bereits bei den SUMAS indexiert!

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

matin
PostRank 9
PostRank 9
Beiträge: 1427
Registriert: 08.09.2005, 15:16
Wohnort: Grünburg

Beitrag von matin » 11.03.2006, 10:36

die gefahr ist, dass durch einen kleinen fehler eine statische url auch dynamisch ausgelesen werden kann, dann hast du dc.
https://suchmaschinentricks.at/ - Ziehen Sie die Aufmerksamkeit im Internet auf sich ...
Kaufe verschiedene Projekte mit entsprechendem Content - Kontaktaufnahme per PN

kh
PostRank 4
PostRank 4
Beiträge: 176
Registriert: 18.01.2006, 08:54

Beitrag von kh » 04.04.2006, 07:38

Ok, dann muss man genau aufpassen, dass keine Fehler unterlaufen!

Aber ist dir Vorgangsweise prinzipiell sinnvoll? Bringt mir das was?

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

matin
PostRank 9
PostRank 9
Beiträge: 1427
Registriert: 08.09.2005, 15:16
Wohnort: Grünburg

Beitrag von matin » 04.04.2006, 07:52

ja, ich denke das es ein klein wenig bringen kann. google hat nach wie vor ein wenig probleme mit dynamischen url's
https://suchmaschinentricks.at/ - Ziehen Sie die Aufmerksamkeit im Internet auf sich ...
Kaufe verschiedene Projekte mit entsprechendem Content - Kontaktaufnahme per PN

ole1210
PostRank 10
PostRank 10
Beiträge: 7464
Registriert: 12.08.2005, 10:40
Wohnort: Olpe

Beitrag von ole1210 » 04.04.2006, 08:04

google hat nach wie vor ein wenig probleme mit dynamischen url's
Ja? Ist mir neu!

Meiner Empfindung nach hat google von den großen Suchmaschinen die geringsten Probleme mit dynamischen URLs.

Christophe
PostRank 5
PostRank 5
Beiträge: 246
Registriert: 13.12.2004, 13:07

Beitrag von Christophe » 04.04.2006, 08:23

Es muss nicht zwangsläufig Probleme mit dynamischen URLs geben. Das Problem bei dynamischen URLs ist:

- Es ist deutlich schwieriger eindeutige URLs zu konstruieren.
- Das Verhältnis von Inhalt zu gleichbleibendem Text ist oft geringer.

Google hat keine Probleme mit vernünftig verlinkten Seiten mit eindeutigen URLs und gutem Inhalt.

baynado
PostRank 6
PostRank 6
Beiträge: 354
Registriert: 25.03.2006, 11:02
Wohnort: Dresden

Beitrag von baynado » 04.04.2006, 08:48

matin hat geschrieben:die gefahr ist, dass durch einen kleinen fehler eine statische url auch dynamisch ausgelesen werden kann, dann hast du dc.
Ich glaub genuaso ein Problem habe ich mit meiner Seite. Was kann man dagegen machen?
Ich hab Joomla als CMS und OpenSEF als Komponente installiert und erzeuge damit "normale URLs", dennoch kommt Google vorbeit und versucht die Dynamischen zu crawlen.
Teile Dein Wissen, so erlangst Du Unsterblichkeit.
Mein Blog baynado.de

ole1210
PostRank 10
PostRank 10
Beiträge: 7464
Registriert: 12.08.2005, 10:40
Wohnort: Olpe

Beitrag von ole1210 » 04.04.2006, 08:55

Das liegt einfach daran, das du teilweise dynamische URLs im Index hast. Und die werden halt regelmässig vom Bot besucht!

baynado
PostRank 6
PostRank 6
Beiträge: 354
Registriert: 25.03.2006, 11:02
Wohnort: Dresden

Beitrag von baynado » 04.04.2006, 09:08

Ok,

hat das dann Auswirkung für die Indizierung, Stichwort:"DC"?
Teile Dein Wissen, so erlangst Du Unsterblichkeit.
Mein Blog baynado.de

kh
PostRank 4
PostRank 4
Beiträge: 176
Registriert: 18.01.2006, 08:54

Beitrag von kh » 04.04.2006, 09:09

ole1210 hat geschrieben:Das liegt einfach daran, das du teilweise dynamische URLs im Index hast. Und die werden halt regelmässig vom Bot besucht!
Aber wenn die Seite schon im Index ist und ich mache dann mod-rewrite mit einem 301er, dann müßten doch die dynamischen URLs im Index verschwinden!?!?!

matin
PostRank 9
PostRank 9
Beiträge: 1427
Registriert: 08.09.2005, 15:16
Wohnort: Grünburg

Beitrag von matin » 04.04.2006, 11:04

[quote="khAber wenn die Seite schon im Index ist und ich mache dann mod-rewrite mit einem 301er, dann müßten doch die dynamischen URLs im Index verschwinden!?!?![/quote]

du musst aber auch noch irgendwo einen link auf die alte (dyn.) seite setzen, damit google die umleitung erkennt.
https://suchmaschinentricks.at/ - Ziehen Sie die Aufmerksamkeit im Internet auf sich ...
Kaufe verschiedene Projekte mit entsprechendem Content - Kontaktaufnahme per PN

kh
PostRank 4
PostRank 4
Beiträge: 176
Registriert: 18.01.2006, 08:54

Beitrag von kh » 04.04.2006, 13:45

tja, was kann ich dann dagegen tun?

pr_sniper
PostRank 9
PostRank 9
Beiträge: 1766
Registriert: 07.02.2006, 19:21

Beitrag von pr_sniper » 04.04.2006, 14:20

liste die statischen URLs in einer Sitemap, damit Google sie alle kennenlernt.

Dann erstelle eine robots.txt, in der du die dynamischen URLs einfach aussperrst, z.B.

Disallow: /thema.php?board=2&thema=

oder einfach

Disallow: /th

(sperrt alle Verzeichnisse und Dateien, die mit th beginnen).

pip
PostRank 6
PostRank 6
Beiträge: 465
Registriert: 24.10.2005, 11:59

Beitrag von pip » 04.04.2006, 14:24

matin hat geschrieben:du musst aber auch noch irgendwo einen link auf die alte (dyn.) seite setzen, damit google die umleitung erkennt.


Wozu Google crawlt die Datein im Index sowieso regelmäßig...

pr_sniper
PostRank 9
PostRank 9
Beiträge: 1766
Registriert: 07.02.2006, 19:21

Beitrag von pr_sniper » 04.04.2006, 14:56

Jede! Umleitung ist für Besucher nur zeitweilig und begründet akzeptabel. Gilt also auch für Google.

Zwei Aufgaben:

1. Komplette Anmeldung der statischen, sprechenden, besucherfreundlichen (darunter auch Robots) Seiten durch eine Sitemap, eben deshalb, damit sie Google überhaupt, vollständig und schnell kennenlernt.

2. Vermeidung des doppelten Content (hier: Erreichbarkeit einer Datei über zwei oder sogar mehrere unterschiedliche URLs) durch die Festlegung in der robots.txt. Google hält sich an die robots.txt, nimmt also dort angezeigte Ordner und Dateien nicht (mehr) auf und löscht diese sogar selbstständig (z.Z. etwa 8 Wochen komplett).

3. Kontrolle praktisch durch inurl:www.domain.de

Fertig. Alles andere ist Unsinn. Matin sammelt wie immer nur Punkte...

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag