Seite 1 von 2

SuMafreundliche URLs über htaccess....taugen nichts?

Verfasst: 02.07.2007, 08:03
von lucky#slevin
Hallo abakus-forum,

Ich habe vor 1 1/2 wochen die URLs meines Shops "suchmaschinenfreundlich" (mit einem Modul für den SHop) umschreiben lassen!

Mittlerweile wurden schon einige Seiten mit den SuMafreundlichen URLs indiziert! Allerdings sind diese überhaupt nicht freundlich, sondern eher feindlich!

denn hier seht ihr die site-Abrage, und achtet mal auf die 3. seite, die aufgelistet wird, die hat anscheinend eine SuMaFreundliche URL, allerdings wird noch eine id drangehängt, was SuMafeindlich ist!

Kennt sich jemand damit aus? und warum ist das so, denn wenn ich im shop durchklicke, werden schöne URLs angezeigt, ohne diesen id-Anhang!

grüsse,
lucky

Verfasst:
von
Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Verfasst: 02.07.2007, 08:11
von pr_sniper
:D Googlebot usw. kann nur das aufnehmen und listen, was du selbst produzierst (z.B. per PHP in deinem Shop-Script) und erlaubst (robots.txt - einfach unerwünschte URLs sperren).

Verfasst: 02.07.2007, 08:20
von lucky#slevin
soweit ich weiss, kann man dem Crawler sagen (über robots.txt), dass sie bestimmte Verzeichnisse und Dateien nicht crawlen sollen, allerdings müssen sie dies nicht und manchmal machen sie es trotzdem.

Was meinst du genau mit, "was du selbst produzierst"? Ist die Umschreibung der URLs über htaccess förderlich für SuMaOpti?

oder soll ich es wieder lassen, weil es nur für Benutzer gut aussieht und nicht für Crawler?

Denn so sieht es für Besucher aus:

https://www.jasan.de/Ringe:::7.html

und so ist die siete indiziert:

www.jasan.de/Ringe:::7.html?XTCsid=7tjvun6hamo....

Also gehe ich davon aus, dass der Crawler die untere URL liest und somit die URL auch nichts taugt...!

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Verfasst: 02.07.2007, 08:24
von mwitte
Du musst nur die Session-IDs unterbinden -- dann steht die URL da so wie Du gerne möchtest.

Verfasst: 02.07.2007, 08:31
von lucky#slevin
wie mache ich das?

denn die Session-IDs sind doch unterbunden, lediglich beim crawlen tauchen diese wieder auf? kannst du mir n tipp geben wie ich das anstelle?

danke ;)

Verfasst: 02.07.2007, 08:57
von chrizz
wenn du XTC nutzt müsste es im Admin Bereich nen Menüpunkt metagTags /Suchmaschinen geben. Da gibts ganz am Ende dann den Eintrag "Spidersessions für bekannte Sumas unterbrinden" das musst du soweit ich weiß aktivieren...

viel erfolg

Verfasst: 02.07.2007, 09:03
von mwitte
lucky#slevin hat geschrieben:denn die Session-IDs sind doch unterbunden
Also wenn ich auf Deine Seite gehe habe ich die Session IDs

Verfasst: 02.07.2007, 09:13
von lucky#slevin
@ chrizz:

Danke...diesen PUnkt hab ich ganz vergessen!

@ mwitte:

das ist komisch...bei mir werden keine IDs angezeigt, versuch doch bitte nochmal auf die seite zu gehen, ob du immernoch eine ID angehängt bekommst :-?

danke euch sehr!

Verfasst: 02.07.2007, 09:14
von pr_sniper
:D gecrawlt werden kann nur, was du (dein php-Script) produzierst und! zuläßt.

Durch z.B.

User-agent: Googlebot
Disallow: /*?

in der .htaccess wird Googlebot gebeten, alle dynamischen URLs, die er ansonsten ja erreichen und indizieren kann, nicht aufzunehmen.

Klar aber, dass damit die Erreichbarkeit der einzelnen Seiten durch sinnvolle Short-URLs gegeben sein muss. Doppelpunkte haben keinen Nährwert, ähm Informationsgehalt, selbst wenn du tausend verwendest.

Also schöner: https://www.jasan.de/ringe-7.html oder https://www.jasan.de/armkettchen/edelst ... la-85.html (das sieht aber bereits nach URL-Spam aus, denn wodurch begründet sich diese unsinnige Strukturtiefe?)

Denke auch an Keyworddichte ... Stichwort Verwässerung, sprechende Short!-URLs usw. Nicht immer alles haben wollen und dann nichts (keine Kunden) erhalten...

Die .htaccess dagegen verwendest du, damit Google mit deinen gelisteten Short-URLs die richtige PHP-Seite auf dem Server findet.

Verfasst: 02.07.2007, 09:16
von Ice Man
außerdem solltest du vielleicht mal deine Description überprüfen, vieles ist doch sehr identisch...

Verfasst: 02.07.2007, 09:30
von Blewworld
Zunächst einmal hast du ja des SEO-Urls am laufen.

Ggf. hast du die Einstellung:
Konfiguration >> Mein Shop >> Cookie Benutzung bevorzugen >> noch nicht auf True gesetzt. Wenn dies aktiviert ist, dann schreibt der XTC alle Informationen in das Cookie und speichert es nicht über die Session ID.

Blewworld

Verfasst: 02.07.2007, 09:58
von lucky#slevin
@ pr-sniper:

die robots.txt sieht wie folgt aus:

https://www.jasan.de/robots.txt

trotzdem, werden seiten, die "disallowed sind" indiziert!

URL-Spam, oh nein...davon höre ich zum ersten mal! danke, muss wohl in der .htaccess einiges ändern.

@ IceMan:

Ich habe bei den meisten seiten unterschiedliche Descirptions...jedoch wird das ignoriert bzw!

Verfasst: 02.07.2007, 10:53
von pr_sniper
Nö,

www.jasan.de/Ringe:::7.html?XTCsid=7tjvun6hamo.... ist immer noch nicht nicht markiert. Vergleiche einfach mit deiner robots.txt.

Mit (siehe oben)

User-agent: Googlebot
Disallow: /*?

in der .htaccess passiert das nicht, weil halt alle Pfade/URLs mit einem Fragezeichen (?) nicht aufgenommen werden.

Dabei spielt die Art der Website (Shop, Forum, jegliches PHP usw. ) überhaupt keine Rolle. Oft sind ja die (kostenlosen) Scripts lieblos bzw. ahnungslos programmiert ... Bei wem willst du dich aber beklagen?

Verfasst: 02.07.2007, 12:29
von lala
Hallo,

habe das gleiche Problem mit den ?XTCsid=...-Anhängen bei meinem Shop (www*lifestyle-schmuck*de). Habe jetzt hoffentlich alle Einstellungen richtig gemacht. Hatte allerdings von Angang an auch z.B. Disallow: create_account.php in der robots.txt, und trotzdem ist meinedomain.de/create_account.php?XTCsid=69129d2d4fa1c60144c5b78d5d5d0a49 in google gelistet.

Frage 1: Muss ich vielleicht Disallow: /create_account.php statt Disallow: create_account.php schreiben?

Frage 2: Wie bekommt man diese ?XTCsid=...-urls aus google wieder raus? Erledigt sich das von alleine, wenn die Einstellungen stimmen?

Liebe Grüsse

lala

Verfasst: 02.07.2007, 12:54
von lucky#slevin
@ lala:

ich befürchte, dass für crawler, create_account.php?XTCsid=0932840 etwas anderes ist als create_account.php...

oder kann uns jemand helfen? bis jetzt greift meine robots.txt nicht so wie ich will...mache ich was falsch?