Ich habe vor 1 1/2 wochen die URLs meines Shops "suchmaschinenfreundlich" (mit einem Modul für den SHop) umschreiben lassen!
Mittlerweile wurden schon einige Seiten mit den SuMafreundlichen URLs indiziert! Allerdings sind diese überhaupt nicht freundlich, sondern eher feindlich!
denn hier seht ihr die site-Abrage, und achtet mal auf die 3. seite, die aufgelistet wird, die hat anscheinend eine SuMaFreundliche URL, allerdings wird noch eine id drangehängt, was SuMafeindlich ist!
Kennt sich jemand damit aus? und warum ist das so, denn wenn ich im shop durchklicke, werden schöne URLs angezeigt, ohne diesen id-Anhang!
Googlebot usw. kann nur das aufnehmen und listen, was du selbst produzierst (z.B. per PHP in deinem Shop-Script) und erlaubst (robots.txt - einfach unerwünschte URLs sperren).
soweit ich weiss, kann man dem Crawler sagen (über robots.txt), dass sie bestimmte Verzeichnisse und Dateien nicht crawlen sollen, allerdings müssen sie dies nicht und manchmal machen sie es trotzdem.
Was meinst du genau mit, "was du selbst produzierst"? Ist die Umschreibung der URLs über htaccess förderlich für SuMaOpti?
oder soll ich es wieder lassen, weil es nur für Benutzer gut aussieht und nicht für Crawler?
wenn du XTC nutzt müsste es im Admin Bereich nen Menüpunkt metagTags /Suchmaschinen geben. Da gibts ganz am Ende dann den Eintrag "Spidersessions für bekannte Sumas unterbrinden" das musst du soweit ich weiß aktivieren...
gecrawlt werden kann nur, was du (dein php-Script) produzierst und! zuläßt.
Durch z.B.
User-agent: Googlebot
Disallow: /*?
in der .htaccess wird Googlebot gebeten, alle dynamischen URLs, die er ansonsten ja erreichen und indizieren kann, nicht aufzunehmen.
Klar aber, dass damit die Erreichbarkeit der einzelnen Seiten durch sinnvolle Short-URLs gegeben sein muss. Doppelpunkte haben keinen Nährwert, ähm Informationsgehalt, selbst wenn du tausend verwendest.
Denke auch an Keyworddichte ... Stichwort Verwässerung, sprechende Short!-URLs usw. Nicht immer alles haben wollen und dann nichts (keine Kunden) erhalten...
Die .htaccess dagegen verwendest du, damit Google mit deinen gelisteten Short-URLs die richtige PHP-Seite auf dem Server findet.
Zunächst einmal hast du ja des SEO-Urls am laufen.
Ggf. hast du die Einstellung:
Konfiguration >> Mein Shop >> Cookie Benutzung bevorzugen >> noch nicht auf True gesetzt. Wenn dies aktiviert ist, dann schreibt der XTC alle Informationen in das Cookie und speichert es nicht über die Session ID.
in der .htaccess passiert das nicht, weil halt alle Pfade/URLs mit einem Fragezeichen (?) nicht aufgenommen werden.
Dabei spielt die Art der Website (Shop, Forum, jegliches PHP usw. ) überhaupt keine Rolle. Oft sind ja die (kostenlosen) Scripts lieblos bzw. ahnungslos programmiert ... Bei wem willst du dich aber beklagen?
habe das gleiche Problem mit den ?XTCsid=...-Anhängen bei meinem Shop (www*lifestyle-schmuck*de). Habe jetzt hoffentlich alle Einstellungen richtig gemacht. Hatte allerdings von Angang an auch z.B. Disallow: create_account.php in der robots.txt, und trotzdem ist meinedomain.de/create_account.php?XTCsid=69129d2d4fa1c60144c5b78d5d5d0a49 in google gelistet.
Frage 1: Muss ich vielleicht Disallow: /create_account.php statt Disallow: create_account.php schreiben?
Frage 2: Wie bekommt man diese ?XTCsid=...-urls aus google wieder raus? Erledigt sich das von alleine, wenn die Einstellungen stimmen?
Liebe Grüsse
lala
Suche noch Linkpartner zu den Bereichen Schmuck, Mode u.Ä. Bei Interesse bitte einfach per PN melden.