Umgang mit unerwünschten Parametern
Verfasst: 04.06.2011, 13:27
Hallo zusammen,
vor einiger Zeit hatte ich hier schon mal berichtet, daß
Google auf Seiten von mir auch mit unerwünschten
Parametern zugegriffen hatte.
Neben normalen Aufrufen von "/unterverzeichnis/datei.htm"
gab es so auch Zugriffe auf "/unterverzeichnis/datei.htm?
keepThis=true&TB_iframe=true&height=768&width=1024"
Im damaligen Thread wurde ein Zusammenhang mit
Thickbox auf irgendeiner fremden Seite vermutet.
Als Lösung vorgeschlagen wurde u.a. ein Umschreiben
der entsprechenden Aufrufe mit Htaccess. Diese Möglichkeit
habe ich bei diesem Webspace allerdings leider nicht.
Ich hatte mir damals stattdessen mit folgenden drei Maßnahmen
geholfen:
1.) Canonical-Tag eingebaut
2.) Aufruf von Adressen mit diesen Parametern über robots.txt
verboten
3.) Diese Parameter in den Google-WMTs über "Parameterbehandlung"
auf "ignorieren" gesetzt.
Resultat:
Wie gewünscht hat Googlebot diese Parameter nicht mehr
zum Seitenaufruf verwendet. Entsprechender DC im Index
(ein paar Unterseiten war ohne und mit Parameter gelistet)
verschwand.
Insofern alles im grünen Bereich, weshalb ich mir über das
Htaccess-Thema auch keine großen Gedanken mehr gemacht
habe.
Mein Problem:
1.) Auf einmal sind die WMTs bei mir voller Fehler, daß Google
wegen dem robots.txt-Verbot nicht auf Unterseiten mit diesen
Parametern zurückgreifen kann. Das ist zwar richtig, aber
müßten Canonical-Tag und die Angaben in der Parameterbehandlung
eigentlich nicht Google beigebracht haben, daß diese Parameter
ohnehin zu ignorieren sind?
2.) Mit dem site-Befehl finde ich im Google-Index plötzlich wieder
diverse Unterseiten mit diesen Parametern in den Suchergebnissen
(aber nur wenn ich die Suche "unter Einbeziehung der übersprungenen
Ergebnisse wiederholen" lasse).
Die Unterseiten mit Parameter haben aber keinen Cache (vermutlich
weil Googlebot sie aufgrund des Verbots in der robots.txt nicht
aufruft?), zudem haben sie in den Google-SERPs auch Titel,
die zumindest teilweise von den echten Titeln abweichen (evtl. wurden
die Unterseiten mit diesem Text irgendwo verlinkt?).
Ich habe den Eindruck, daß Google meine oben genannten
Maßnahmen (Canonical-Tag, Parameterbehandlung) irgendwie
"vergessen" hat. In der Parameterbehandlung sind die betroffenen
Parameter auch auf einmal auf "Nicht zutreffend" gesprungen.
Als ich das erste Mal über das Problem berichet hatte, war die Seite für
viele Keywords mit einem +950-Filter abgestürzt. Das ist jetzt wieder
der Fall, ausgerechnet zu dem Zeitpunkt, wo Google offenbar wieder
Probleme mit diesen Parametern hat.
Ich bin mir aber nicht wirklich sicher, ob da tatsächlich ein
Zusammenhang besteht. Es gab ja aber schon mal einen Thread,
wo ein Zusammenhang mit DC durch diese Parameter einerseits
und einem Absturz andererseits vermutet wurde.
Grüße,
Netzfreak
vor einiger Zeit hatte ich hier schon mal berichtet, daß
Google auf Seiten von mir auch mit unerwünschten
Parametern zugegriffen hatte.
Neben normalen Aufrufen von "/unterverzeichnis/datei.htm"
gab es so auch Zugriffe auf "/unterverzeichnis/datei.htm?
keepThis=true&TB_iframe=true&height=768&width=1024"
Im damaligen Thread wurde ein Zusammenhang mit
Thickbox auf irgendeiner fremden Seite vermutet.
Als Lösung vorgeschlagen wurde u.a. ein Umschreiben
der entsprechenden Aufrufe mit Htaccess. Diese Möglichkeit
habe ich bei diesem Webspace allerdings leider nicht.
Ich hatte mir damals stattdessen mit folgenden drei Maßnahmen
geholfen:
1.) Canonical-Tag eingebaut
2.) Aufruf von Adressen mit diesen Parametern über robots.txt
verboten
3.) Diese Parameter in den Google-WMTs über "Parameterbehandlung"
auf "ignorieren" gesetzt.
Resultat:
Wie gewünscht hat Googlebot diese Parameter nicht mehr
zum Seitenaufruf verwendet. Entsprechender DC im Index
(ein paar Unterseiten war ohne und mit Parameter gelistet)
verschwand.
Insofern alles im grünen Bereich, weshalb ich mir über das
Htaccess-Thema auch keine großen Gedanken mehr gemacht
habe.
Mein Problem:
1.) Auf einmal sind die WMTs bei mir voller Fehler, daß Google
wegen dem robots.txt-Verbot nicht auf Unterseiten mit diesen
Parametern zurückgreifen kann. Das ist zwar richtig, aber
müßten Canonical-Tag und die Angaben in der Parameterbehandlung
eigentlich nicht Google beigebracht haben, daß diese Parameter
ohnehin zu ignorieren sind?
2.) Mit dem site-Befehl finde ich im Google-Index plötzlich wieder
diverse Unterseiten mit diesen Parametern in den Suchergebnissen
(aber nur wenn ich die Suche "unter Einbeziehung der übersprungenen
Ergebnisse wiederholen" lasse).
Die Unterseiten mit Parameter haben aber keinen Cache (vermutlich
weil Googlebot sie aufgrund des Verbots in der robots.txt nicht
aufruft?), zudem haben sie in den Google-SERPs auch Titel,
die zumindest teilweise von den echten Titeln abweichen (evtl. wurden
die Unterseiten mit diesem Text irgendwo verlinkt?).
Ich habe den Eindruck, daß Google meine oben genannten
Maßnahmen (Canonical-Tag, Parameterbehandlung) irgendwie
"vergessen" hat. In der Parameterbehandlung sind die betroffenen
Parameter auch auf einmal auf "Nicht zutreffend" gesprungen.
Als ich das erste Mal über das Problem berichet hatte, war die Seite für
viele Keywords mit einem +950-Filter abgestürzt. Das ist jetzt wieder
der Fall, ausgerechnet zu dem Zeitpunkt, wo Google offenbar wieder
Probleme mit diesen Parametern hat.
Ich bin mir aber nicht wirklich sicher, ob da tatsächlich ein
Zusammenhang besteht. Es gab ja aber schon mal einen Thread,
wo ein Zusammenhang mit DC durch diese Parameter einerseits
und einem Absturz andererseits vermutet wurde.
Grüße,
Netzfreak