Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

SuMafreundliche URLs über htaccess....taugen nichts?

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
lucky#slevin
PostRank 2
PostRank 2
Beiträge: 36
Registriert: 26.06.2007, 13:34

Beitrag von lucky#slevin » 02.07.2007, 08:03

Hallo abakus-forum,

Ich habe vor 1 1/2 wochen die URLs meines Shops "suchmaschinenfreundlich" (mit einem Modul für den SHop) umschreiben lassen!

Mittlerweile wurden schon einige Seiten mit den SuMafreundlichen URLs indiziert! Allerdings sind diese überhaupt nicht freundlich, sondern eher feindlich!

denn hier seht ihr die site-Abrage, und achtet mal auf die 3. seite, die aufgelistet wird, die hat anscheinend eine SuMaFreundliche URL, allerdings wird noch eine id drangehängt, was SuMafeindlich ist!

Kennt sich jemand damit aus? und warum ist das so, denn wenn ich im shop durchklicke, werden schöne URLs angezeigt, ohne diesen id-Anhang!

grüsse,
lucky

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

pr_sniper
PostRank 9
PostRank 9
Beiträge: 1766
Registriert: 07.02.2006, 19:21

Beitrag von pr_sniper » 02.07.2007, 08:11

:D Googlebot usw. kann nur das aufnehmen und listen, was du selbst produzierst (z.B. per PHP in deinem Shop-Script) und erlaubst (robots.txt - einfach unerwünschte URLs sperren).

lucky#slevin
PostRank 2
PostRank 2
Beiträge: 36
Registriert: 26.06.2007, 13:34

Beitrag von lucky#slevin » 02.07.2007, 08:20

soweit ich weiss, kann man dem Crawler sagen (über robots.txt), dass sie bestimmte Verzeichnisse und Dateien nicht crawlen sollen, allerdings müssen sie dies nicht und manchmal machen sie es trotzdem.

Was meinst du genau mit, "was du selbst produzierst"? Ist die Umschreibung der URLs über htaccess förderlich für SuMaOpti?

oder soll ich es wieder lassen, weil es nur für Benutzer gut aussieht und nicht für Crawler?

Denn so sieht es für Besucher aus:

https://www.jasan.de/Ringe:::7.html

und so ist die siete indiziert:

www.jasan.de/Ringe:::7.html?XTCsid=7tjvun6hamo....

Also gehe ich davon aus, dass der Crawler die untere URL liest und somit die URL auch nichts taugt...!

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


mwitte
Administrator
Administrator
Beiträge: 4129
Registriert: 08.09.2006, 16:31

Beitrag von mwitte » 02.07.2007, 08:24

Du musst nur die Session-IDs unterbinden -- dann steht die URL da so wie Du gerne möchtest.

lucky#slevin
PostRank 2
PostRank 2
Beiträge: 36
Registriert: 26.06.2007, 13:34

Beitrag von lucky#slevin » 02.07.2007, 08:31

wie mache ich das?

denn die Session-IDs sind doch unterbunden, lediglich beim crawlen tauchen diese wieder auf? kannst du mir n tipp geben wie ich das anstelle?

danke ;)

chrizz
PostRank 10
PostRank 10
Beiträge: 3044
Registriert: 05.07.2006, 10:37
Wohnort: Berlin

Beitrag von chrizz » 02.07.2007, 08:57

wenn du XTC nutzt müsste es im Admin Bereich nen Menüpunkt metagTags /Suchmaschinen geben. Da gibts ganz am Ende dann den Eintrag "Spidersessions für bekannte Sumas unterbrinden" das musst du soweit ich weiß aktivieren...

viel erfolg

mwitte
Administrator
Administrator
Beiträge: 4129
Registriert: 08.09.2006, 16:31

Beitrag von mwitte » 02.07.2007, 09:03

lucky#slevin hat geschrieben:denn die Session-IDs sind doch unterbunden
Also wenn ich auf Deine Seite gehe habe ich die Session IDs

lucky#slevin
PostRank 2
PostRank 2
Beiträge: 36
Registriert: 26.06.2007, 13:34

Beitrag von lucky#slevin » 02.07.2007, 09:13

@ chrizz:

Danke...diesen PUnkt hab ich ganz vergessen!

@ mwitte:

das ist komisch...bei mir werden keine IDs angezeigt, versuch doch bitte nochmal auf die seite zu gehen, ob du immernoch eine ID angehängt bekommst :-?

danke euch sehr!

pr_sniper
PostRank 9
PostRank 9
Beiträge: 1766
Registriert: 07.02.2006, 19:21

Beitrag von pr_sniper » 02.07.2007, 09:14

:D gecrawlt werden kann nur, was du (dein php-Script) produzierst und! zuläßt.

Durch z.B.

User-agent: Googlebot
Disallow: /*?

in der .htaccess wird Googlebot gebeten, alle dynamischen URLs, die er ansonsten ja erreichen und indizieren kann, nicht aufzunehmen.

Klar aber, dass damit die Erreichbarkeit der einzelnen Seiten durch sinnvolle Short-URLs gegeben sein muss. Doppelpunkte haben keinen Nährwert, ähm Informationsgehalt, selbst wenn du tausend verwendest.

Also schöner: https://www.jasan.de/ringe-7.html oder https://www.jasan.de/armkettchen/edelst ... la-85.html (das sieht aber bereits nach URL-Spam aus, denn wodurch begründet sich diese unsinnige Strukturtiefe?)

Denke auch an Keyworddichte ... Stichwort Verwässerung, sprechende Short!-URLs usw. Nicht immer alles haben wollen und dann nichts (keine Kunden) erhalten...

Die .htaccess dagegen verwendest du, damit Google mit deinen gelisteten Short-URLs die richtige PHP-Seite auf dem Server findet.

Ice Man
PostRank 9
PostRank 9
Beiträge: 2477
Registriert: 04.06.2003, 19:16

Beitrag von Ice Man » 02.07.2007, 09:16

außerdem solltest du vielleicht mal deine Description überprüfen, vieles ist doch sehr identisch...

Blewworld
PostRank 3
PostRank 3
Beiträge: 89
Registriert: 29.05.2006, 13:34

Beitrag von Blewworld » 02.07.2007, 09:30

Zunächst einmal hast du ja des SEO-Urls am laufen.

Ggf. hast du die Einstellung:
Konfiguration >> Mein Shop >> Cookie Benutzung bevorzugen >> noch nicht auf True gesetzt. Wenn dies aktiviert ist, dann schreibt der XTC alle Informationen in das Cookie und speichert es nicht über die Session ID.

Blewworld

lucky#slevin
PostRank 2
PostRank 2
Beiträge: 36
Registriert: 26.06.2007, 13:34

Beitrag von lucky#slevin » 02.07.2007, 09:58

@ pr-sniper:

die robots.txt sieht wie folgt aus:

https://www.jasan.de/robots.txt

trotzdem, werden seiten, die "disallowed sind" indiziert!

URL-Spam, oh nein...davon höre ich zum ersten mal! danke, muss wohl in der .htaccess einiges ändern.

@ IceMan:

Ich habe bei den meisten seiten unterschiedliche Descirptions...jedoch wird das ignoriert bzw!

pr_sniper
PostRank 9
PostRank 9
Beiträge: 1766
Registriert: 07.02.2006, 19:21

Beitrag von pr_sniper » 02.07.2007, 10:53

Nö,

www.jasan.de/Ringe:::7.html?XTCsid=7tjvun6hamo.... ist immer noch nicht nicht markiert. Vergleiche einfach mit deiner robots.txt.

Mit (siehe oben)

User-agent: Googlebot
Disallow: /*?

in der .htaccess passiert das nicht, weil halt alle Pfade/URLs mit einem Fragezeichen (?) nicht aufgenommen werden.

Dabei spielt die Art der Website (Shop, Forum, jegliches PHP usw. ) überhaupt keine Rolle. Oft sind ja die (kostenlosen) Scripts lieblos bzw. ahnungslos programmiert ... Bei wem willst du dich aber beklagen?

lala
PostRank 6
PostRank 6
Beiträge: 383
Registriert: 18.02.2004, 08:25
Wohnort: Bayern

Beitrag von lala » 02.07.2007, 12:29

Hallo,

habe das gleiche Problem mit den ?XTCsid=...-Anhängen bei meinem Shop (www*lifestyle-schmuck*de). Habe jetzt hoffentlich alle Einstellungen richtig gemacht. Hatte allerdings von Angang an auch z.B. Disallow: create_account.php in der robots.txt, und trotzdem ist meinedomain.de/create_account.php?XTCsid=69129d2d4fa1c60144c5b78d5d5d0a49 in google gelistet.

Frage 1: Muss ich vielleicht Disallow: /create_account.php statt Disallow: create_account.php schreiben?

Frage 2: Wie bekommt man diese ?XTCsid=...-urls aus google wieder raus? Erledigt sich das von alleine, wenn die Einstellungen stimmen?

Liebe Grüsse

lala
Suche noch Linkpartner zu den Bereichen Schmuck, Mode u.Ä. Bei Interesse bitte einfach per PN melden.

Kostenloser Webkatalog
https://www.verzeichnis-eintrag.de
Seiten zum Thema Luxus kostenlos eintragen auf https://www.luxus-exklusiv.de Bitte nur themenbezogene Seiten!

lucky#slevin
PostRank 2
PostRank 2
Beiträge: 36
Registriert: 26.06.2007, 13:34

Beitrag von lucky#slevin » 02.07.2007, 12:54

@ lala:

ich befürchte, dass für crawler, create_account.php?XTCsid=0932840 etwas anderes ist als create_account.php...

oder kann uns jemand helfen? bis jetzt greift meine robots.txt nicht so wie ich will...mache ich was falsch?

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag