Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

120.000 Seiten Crawlingfehler , google Einbruch

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
dapapst
PostRank 1
PostRank 1
Beiträge: 6
Registriert: 30.12.2012, 14:30

Beitrag von dapapst » 30.12.2012, 15:30

Hallo,
dies ist mein erster Post, ich lese hier sporadisch schon seit Jahren mit. Aber jetzt brauche ich einmal eure Hilfe.

Es geht um erster Linie um folgendes Problem. Ich hatte auf meiner Webseite eine Unterseite mit fast "unendlich" Unterseiten. Es handelte sich um eine Suchseite mit folgenden Parametern "?suchparameter=x" . Dadurch hatte google einiges beim Crawlen zu tun. Jetzt haben wir die Seite vor einiger Zeit offline genommen, doch trotzdem versucht google die Seite zu crawlen.

Ich habe die Seite in der Robots.txt auf exclude gesetzt. Aber natürlich nicht alle Unterseiten. Dann habe ich in google webmastertools die Url entfernt. Jetzt weiß ich aber nicht ob das funktioniert hat oder nicht.

Zustäzlich ist der google Traffic total eingebrochen. Ob es daran liegt, kann ich leider nicht genau sagen. Wäre aber auch dort an einer Lösung interessiert. Vielleicht habt ihr ja spontan eine Idee woran das liegen könnte. Bin auf jedenfall für jeden Tip dankbar.

Cliffs:
1. Ich würde gerne eine Unterseite inklusive aller Parameter aus google entfernen, sodass google nicht versucht diese Seite zu crawlen. Die Seite sollte nach meinem Wissen nirgendwo mehr velinkt seint.

2. Mein googletraffic ist eingebrochen. Habt ihr spontan eine Idee woran das liegen könnte. Liegt es an den Crawlingfehlern ?

Danke für eure Hilfe!!

Bild

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


bbnetch
PostRank 8
PostRank 8
Beiträge: 869
Registriert: 02.06.2005, 17:24
Wohnort: Philippinen

Beitrag von bbnetch » 30.12.2012, 16:36

so wie deine statistsick sagt, hattest du ja vorher schonmal ein einbruch.
sieht mir eher nach google spinerei aus, denke seit diesem jahr haben schon viele webmaster solche komischen "auf und ab" statisticken gesehen.
Geld verdienen im Schlaf und so ...Webmasterforum

Suche Linktausch Thema: Reisen, Philippinen, Ferienwohnung/Apartment, Tauchen, Urlaub etz. PN bitte!
.

Stelufl
PostRank 4
PostRank 4
Beiträge: 165
Registriert: 01.02.2011, 10:09

Beitrag von Stelufl » 30.12.2012, 18:38

Hallo,

wenn ich dich richtig verstehe wolltest du mit deiner Methodik die Suchergebnisseiten aus dem Index loswerden?

Leider hast du nun ein Problem, welches ich in ähnlicher Weise selbst hatte und was jetzt "schnell" nicht mehr behebbar ist, denn die 120k Fehler werden monatelang angezeigt bleiben. Google hat die ganzen Verweise auf die Suchergebnisseiten (Also vermutlich die Seite, auf die das Suchformular verweist..) im Cache gespeichert und das bleibt auch noch mehrere Monate so (bei mir gibt es z. B. auch zig 404 Fehler seit 2 Monaten, obwohl die Fehlerquelle länst beseitigt ist). Ich habe diesbzgl. bei Google im Forum nachgefragt (weil man mir auf Abakus nicht helfen konnte), auch dort hieß es ich könne diese 404er getrost ignorieren.. Allerdings sind es bei mir nur 200 bei 900 Seiten insgesamt

Angeblich soll man sich um diese Fehler nicht kümmern und sie würden irgendwann von selbst verschwinden. Es wirkt sich "im Allgemeinen" auch nicht auf dein Ranking aus, so Google.

Trotzdem: Du solltest das anders lösen. Stell die Suchseite wieder online. So werden Googles Anfragen mit den vielen verschiedenen Parametern wenigstens keine 404er mehr verursachen und deine User können die FUnktion weiterhin benutzen.
Zusätzlich gehst du in den WMT auf Konfiguration->Url Parameter und stellst folendes ein:

Parameter hinzufügen
Paramter: suchparameter
Ja, ändert den Seiteninhalt (Eingrenzung)
KEINE URLS

Auf diese Weise werden alle Unterseiten mit suchparameter=xyz nicht gecrawled und verschwinden früher oder später aus den SERPs, sofern die Seiten nicht auch anders erreicht werden können (z. B. durch andere Parameter)

Noch ein weiterer Schritt wäre die Möglichkeit, auf allen Seiten, die nicht indexiert werden sollen, das "noindex" meta attribut einzufügen.

Sofern die Suche doch entfernt bleiben soll, ignorier die 404er einfach. Die sind doch auch ganz normal in deinem Fall.

Christian Kunz
PostRank 4
PostRank 4
Beiträge: 194
Registriert: 10.09.2012, 08:29
Wohnort: Dierbach, Germany

Beitrag von Christian Kunz » 30.12.2012, 20:03

Richtig, und ich schlage vor, dass Du zuerst die Suchergebnisseiten per Meta-Attribut auf "noindex" stellst, bevor Du die Parameterbehandlung in den Google Webmaster Tools veränderst. Das Robots-Attribut ist der sauberste und einfachste Weg.

Gruß,
Christian
Christian Kunz

Suchmaschinenoptimierung und SEO-Blog SEO Südwest

michi1979
PostRank 1
PostRank 1
Beiträge: 19
Registriert: 06.10.2007, 14:55

Beitrag von michi1979 » 31.12.2012, 00:14

ich würde über robots.txt mit einen Wildcard für den google-Bot alles ausschließen, was ?suchparameter= enthält. Zusätzlich noch die Seiten auf "noindex", wobei über robots.txt die Seiten deutlich schneller wieder aus der Google-Suche verschwinden. In den Webmaster-Tools kann es aber noch ein paar Monate angezeigt werden, da verschwinden maximal ein paar tausend Fehler pro Tag. So sind zumindest meine Erfahrungen bei einem ähnlichen Problem, auch wenn der google-Traffic damals nicht zurück ging.

Christian Kunz
PostRank 4
PostRank 4
Beiträge: 194
Registriert: 10.09.2012, 08:29
Wohnort: Dierbach, Germany

Beitrag von Christian Kunz » 31.12.2012, 09:03

Vorsicht mit der robots.txt - diese immer nur in Verbindung mit den Robots-Attributen verwenden. Denn sonst kann es zu unerwünschten Ergebnissen kommen - zum Beispiel Suchtreffer ohne Titel und Beschreibung.

Gruß,
Christian
Christian Kunz

Suchmaschinenoptimierung und SEO-Blog SEO Südwest

dapapst
PostRank 1
PostRank 1
Beiträge: 6
Registriert: 30.12.2012, 14:30

Beitrag von dapapst » 31.12.2012, 11:36

Vielen Dank für die ganzen hilfreichen Tips.

Werde jetzt die Seite wieder online Stellen und einfach per htaccess umbiegen. Und diese Seite auf noIndex stellen.

Das Problem an der Robots.txt und generell bei NoIndex ist, das zwar die Ergebnisse nicht bei google gelistet werden, die Seite aber weiterhin von google gecrawlt wird.

Stelufl
PostRank 4
PostRank 4
Beiträge: 165
Registriert: 01.02.2011, 10:09

Beitrag von Stelufl » 31.12.2012, 13:37

Deshalb auch der Tipp mit der Url Parameter Config in den WMT.. danach crawled google die Seiten nicht mehr!

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag