Seite 2 von 2

Verfasst: 28.10.2013, 21:14
von Kristian
Ich sage es mal mit einfachen Worten:
Mit deiner robots.txt verbietest zu allen Robots den Zugriff auf deine Seiten.
Dein Shop produziert nach wie vor Session-ID's (....?XTCsid=....), du hast alle URL's verboten, in denen eine Session-ID vorkommt.
Du musst diese Session-ID's im Shop "ausschalten". Ich kenne deinen XTC-Fork nicht wirklich aber es muss im Admin irgendwas geben.

Verfasst:
von

Verfasst: 28.10.2013, 21:27
von grazka
Wo gibt es diese Möglichkeit in einem anderen xt-commerce shop? Gambio ist ähnlich aufgebaut, dann müsste ich das finden.

Verfasst: 28.10.2013, 21:48
von grazka
Ich finde leider nichts. Einzige Sache, mit der ich nichts anzufangen weiss sind CACHE Optionen.

Verfasst:
von
Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Verfasst: 28.10.2013, 21:53
von grazka
Es gibt noch ein Punkt:
Sessions
wo man einstellen kann:
Session Speicherort


Cookie Benutzung bevorzugen

Ja
Nein

Überprüfen der SSL Session ID
Ja
Nein


Überprüfen des User Browsers
Ja
Nein


Überprüfen der IP-Adresse
Ja
Nein

Session erneuern
Ja
Nein

Ist das das?

Verfasst: 29.10.2013, 18:18
von grazka
Hat jemand noch vielleicht eine Idee, warum bei Google plötzlich mein shop nicht mehr wie immer mit der Startseite und Kat-Seiten sondern mit einzelnen Artikelseiten oder Seiten, die schon lange nicht mehr existieren rankt?

Verfasst: 30.10.2013, 10:58
von kyi
Das Hauptproblem von dir, wenn ich dem Thread richtig gefolgt bin, ist doch, dass Seiten im Index sind, die dort deiner Meinung nach nichts zu suchen haben und die du nicht im Index haben möchtest, oder?
Dann hilft auch das Gerede über die robots.txt nicht weiter. Die ist zwar dazu gut, dass Google einen Fingerzeig bekommt, welche Verzeichnisse ausgelassen werden sollen, allerdings ist es halt nur eine Richtlinie, keine feste Regel für Google.
Ich habe es schon mehrfach gesehen, dass Seiten, die in einer ausgeschlossenen Verzeichnisebene liegen trotzdem von Google indexiert werden. Vielleicht aufgrund der Sitemap oder auch durch externe Verlinkungen.
Eine Lösung wäre die Seiten aus der Sitemap etc. zu entfernen und die Seiten auf noindex,follow zu setzen. Besonders bei Paginierungen zu empfehlen. Das machst du nämlich aktuell noch nicht!

Verfasst: 30.10.2013, 13:17
von grazka
kyi hat geschrieben: Eine Lösung wäre die Seiten aus der Sitemap etc. zu entfernen und die Seiten auf noindex,follow zu setzen. Besonders bei Paginierungen zu empfehlen. Das machst du nämlich aktuell noch nicht!
Diese Seiten sind nicht in Sitemap. Wie setze ich sie auf noindex?

Verfasst: 30.10.2013, 15:00
von kyi
<meta name="robots" content="index,follow"> auf die Seite schreiben! :)

Falls du schon ein Robots-Tag drauf hast natürlich ersetzen!

Verfasst: 30.10.2013, 20:31
von grazka
kyi hat geschrieben:<meta name="robots" content="index,follow"> auf die Seite schreiben! :)

Falls du schon ein Robots-Tag drauf hast natürlich ersetzen!
Das ist bei mir im shop so fest vereingestellt. Kann nicht gelöscht werden. War schon immer so.