Seite 1 von 1

PDF´s werden nicht mehr erkannt - und der Spaß geht weiter

Verfasst: 09.07.2008, 15:34
von strichpunkt
Hallo an alle,

ich habe vor einiger Zeit Produkt-PDF´s ins Netz gestellt und erfreut festgestellt, dass sich unser Ranking bei G*** dadurch verbessert hat. Die PDF´s hatten Titles und konnten scheinbar von Google ausgelesen werden. Nun haben wir die PDF´s neu gestaltet und hochgeladen und jetzt stehen sie plötzlich als "Untitled" drinnen.
Ich weiß leider nicht, was ich diesmal anders oder falsch gemacht habe. Hat jemand vielleicht einen Denkanstoß?

Vielen Dank
Strichpunkt

Verfasst:
von

Verfasst: 10.07.2008, 09:46
von strichpunkt
Habe heute in die Webmastertools reingeschaut und weitere Veränderung festgestellt: die Contentanalyse bringt folgendes Ergebnis
Doppelte Metabeschreibungen: 50
Kurze Metabechreibungen: 35
Doppelte Title-Tags: 94
Diese Daten wurden vorher noch nie ausgegeben!
Wir haben unser Shopsystem über XTC. Die Doppelten generieren sich fast immer aus der URL-Endung mit: /XTCsid/emh09n1bg1sfarae5qlof2tjf5‎
Kennt jemand das Problem? Muss ich mir ernsthafte Sorgen machen und was würdet ihr tun?

Verfasst: 10.07.2008, 10:04
von s97446
Wo auch immer Du das

/XTCsid/emh09n1bg1sfarae5qlof2tjf5‎

stehen hast: Ich würde versuchen, die Session-ID (um die es sich dabei wohl handelt) dort rauszuhalten 8)

Verfasst:
von

Verfasst: 10.07.2008, 10:12
von strichpunkt
Ich hab die Endung aus den Ergebnissen Webmastertools rauskopiert. Dort hatte ich sie vorher noch nie gehesen bzw. hatte ich wie erwähnt noch nie Proleme mit irgendwelchen doppelten Sachen.
Wie ist "raushalten" gemeint? Nicht beachten? Die Session-ID´s lassen sich ja leider nicht vermeiden...

Verfasst: 10.07.2008, 10:47
von Loptr
Admin -> Konfiguration -> Meta Tags / Suchmaschinen ->
Spider Sessions vermeiden auf true

sollte für den Anfang reichen.

Verfasst: 10.07.2008, 11:02
von Ehemalige Nutzer Z
und /XTCsid/ per robots.txt sperren, so als schnelle lösung.

Verfasst: 10.07.2008, 12:07
von Loptr
zuendschnur hat geschrieben:und /XTCsid/ per robots.txt sperren, so als schnelle lösung.
Kleine Aufklärung dazu bitte.

Würde ja dann so aussehen:

www.shopirgendwas.de/produkt123.html/XT ... tjf5‎

Gibt 2 Möglichkeiten:
- er indexiert den Link bis zum /XTCsid oder
- er indexiert da gar nix

Erfahrungen?

Verfasst: 19.07.2008, 13:09
von nerd
dann wird garnix indiziert, weil die session ids ja schon angehangen werden wenn oscommerce die seite generiert. dh alle links zeigen zu produkt123.html/XTCsid/emh09n1bg1sfarae5qlof2tjf5‎ , aber der link ist per robots.txt gesperrt.