Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Umgang mit unerwünschten Parametern

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
netzfreak
PostRank 3
PostRank 3
Beiträge: 94
Registriert: 01.01.2009, 17:15

Beitrag von netzfreak » 04.06.2011, 13:27

Hallo zusammen,

vor einiger Zeit hatte ich hier schon mal berichtet, daß
Google auf Seiten von mir auch mit unerwünschten
Parametern zugegriffen hatte.

Neben normalen Aufrufen von "/unterverzeichnis/datei.htm"
gab es so auch Zugriffe auf "/unterverzeichnis/datei.htm?
keepThis=true&TB_iframe=true&height=768&width=1024"

Im damaligen Thread wurde ein Zusammenhang mit
Thickbox auf irgendeiner fremden Seite vermutet.

Als Lösung vorgeschlagen wurde u.a. ein Umschreiben
der entsprechenden Aufrufe mit Htaccess. Diese Möglichkeit
habe ich bei diesem Webspace allerdings leider nicht.

Ich hatte mir damals stattdessen mit folgenden drei Maßnahmen
geholfen:

1.) Canonical-Tag eingebaut

2.) Aufruf von Adressen mit diesen Parametern über robots.txt
verboten

3.) Diese Parameter in den Google-WMTs über "Parameterbehandlung"
auf "ignorieren" gesetzt.

Resultat:
Wie gewünscht hat Googlebot diese Parameter nicht mehr
zum Seitenaufruf verwendet. Entsprechender DC im Index
(ein paar Unterseiten war ohne und mit Parameter gelistet)
verschwand.

Insofern alles im grünen Bereich, weshalb ich mir über das
Htaccess-Thema auch keine großen Gedanken mehr gemacht
habe.

Mein Problem:

1.) Auf einmal sind die WMTs bei mir voller Fehler, daß Google
wegen dem robots.txt-Verbot nicht auf Unterseiten mit diesen
Parametern zurückgreifen kann. Das ist zwar richtig, aber
müßten Canonical-Tag und die Angaben in der Parameterbehandlung
eigentlich nicht Google beigebracht haben, daß diese Parameter
ohnehin zu ignorieren sind?

2.) Mit dem site-Befehl finde ich im Google-Index plötzlich wieder
diverse Unterseiten mit diesen Parametern in den Suchergebnissen
(aber nur wenn ich die Suche "unter Einbeziehung der übersprungenen
Ergebnisse wiederholen" lasse).

Die Unterseiten mit Parameter haben aber keinen Cache (vermutlich
weil Googlebot sie aufgrund des Verbots in der robots.txt nicht
aufruft?), zudem haben sie in den Google-SERPs auch Titel,
die zumindest teilweise von den echten Titeln abweichen (evtl. wurden
die Unterseiten mit diesem Text irgendwo verlinkt?).

Ich habe den Eindruck, daß Google meine oben genannten
Maßnahmen (Canonical-Tag, Parameterbehandlung) irgendwie
"vergessen" hat. In der Parameterbehandlung sind die betroffenen
Parameter auch auf einmal auf "Nicht zutreffend" gesprungen.

Als ich das erste Mal über das Problem berichet hatte, war die Seite für
viele Keywords mit einem +950-Filter abgestürzt. Das ist jetzt wieder
der Fall, ausgerechnet zu dem Zeitpunkt, wo Google offenbar wieder
Probleme mit diesen Parametern hat.

Ich bin mir aber nicht wirklich sicher, ob da tatsächlich ein
Zusammenhang besteht. Es gab ja aber schon mal einen Thread,
wo ein Zusammenhang mit DC durch diese Parameter einerseits
und einem Absturz andererseits vermutet wurde.

Grüße,
Netzfreak

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Anonymous

Beitrag von Anonymous » 04.06.2011, 13:31

wie soll der Googlebot den
netzfreak hat geschrieben:1.) Canonical-Tag eingebaut
sehen wenn du gleichzeitig
netzfreak hat geschrieben:2.) Aufruf von Adressen mit diesen Parametern über robots.txt verboten
gemacht hast....

:roll:

netzfreak
PostRank 3
PostRank 3
Beiträge: 94
Registriert: 01.01.2009, 17:15

Beitrag von netzfreak » 04.06.2011, 13:54

@net(t)worker:

Bei mir wird die robots.txt nur alle paar Tage abgefragt.

Aus der Erinnerung heraus müßte der Googlebot zuerst
noch einige Seiten mit eingebautem Canonical-Tag abgerufen
haben, bis schließlich der Ausschluß in den robots.txt gegriffen
hatte.

Grüße,
Netzfreak

Anonymous

Beitrag von Anonymous » 04.06.2011, 14:34

du solltest nur mit dem canonical arbeiten.... du merkst ja selber das die durch robots.txt gesperrten Seiten dennoch in den SERPS landen, eben ohne Titel/snippet etc... weil er die Seiten nicht aufrufen darf....... nur mit dem canonical passiert das nicht...

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag