Seite 1 von 1

WMT Crawl Errors

Verfasst: 14.05.2011, 21:00
von NathanC
Google Webmaster Tools gibt bei einem neuen Projekt seit geraumer Zeit an die 100 Crawl Errors (404) aus. Alle Seiten waren und sind dabei jedoch jederzeit erreichbar gewesen und ranken teilweise auch.

Bei allen 404 Crawl Error Seiten handelt es sich um Unterseiten, die jeweils mit ca 100 Wörter unique Text gefüllt sind (ähnlich wie einem Lexikon, wo ein Begriff erklärt wird)

Normalerweise würde ich sagen, einfach abwarten, aber nun kamen vor 2 Tagen schon wieder 5 neue 404 Errors hinzu, die definitiv keine 404 Errors sind. Hatte das bisher bei keinem Projekt und bin mir unsicher, ob die ganzen Crawl Errors in den WMT nicht schädlich fürs Ranking sein könnten. Schließlich "denkt" der google crawler dann wohl, dass die Seite massivste 404 Fehler enthält, obwohl dem eben definitiv nicht so ist.

Heißts hier einfach abwarten und Tee trinken? sonstige Vorschläge?

Verfasst:
von

Verfasst: 14.05.2011, 22:13
von Hirnhamster
Nö, rausfinden warum das so ist. Hast du mal die header kontrolliert und "View as Googlebot" bemüht?

Verfasst: 14.05.2011, 23:24
von Major Tom
Bei mir wurden vor 2 Monaten 70 Urls angezeigt, die es so definitiv nicht gibt. Nun verschwinden sie nach und nach wieder. Scheinbar scheint der Bot manchmal einen über den Durst zu trinken.

Verfasst:
von

Verfasst: 14.05.2011, 23:33
von NathanC
Hirnhamster hat geschrieben:Nö, rausfinden warum das so ist. Hast du mal die header kontrolliert und "View as Googlebot" bemüht?
Nein, habe auch eigene Programmierer und davon nicht viel Ahnung, wüsste also nicht wonach ich schauen sollte, werde es aber weitergeben.

Haben die Crawl Errors einen Einfluss auf das Ranking? Kann man zwar sicher eh nur schätzen, denn prinzipiell ranked die Seite nach der kurzen Zeit ganz anständig

@Major Tom: Die als fehlerhaften angezeigten URLs bei mir gibt es aber leider, da liegt der Hund ja begraben :[

Verfasst: 15.05.2011, 09:52
von Hirnhamster
Nein, gab da auch vor kurzem erst einen Post im Googleblog. Es kann jedoch negativ sein, wenn Seiten als "nicht gefunden" ausgezeichnet werden, die eigentlich da sein, weil sie dann (eigentlich) aus dem Index entfernt werden. Siehe auch https://googlewebmastercentral.blogspot ... -site.html

Es schadet aber nicht der Domain als ganzes

Verfasst:
von

Verfasst: 16.05.2011, 07:35
von SEO-NERD
Das ist interessant.
Bei meiner Website werden in den Google Webmaster Tools ganze 100.000 Links als nicht erreichbar angegeben.
UND das kann ich nun wirklich nicht nachvollziehen.

PS: Zum besseren Verständnis. Vor 2 WOchen haben wir einen KK-Antrag (Domain-Umzug) zum neuen Shop Hoster durchgeführt, seitdem bilde ich mir ein, diese Crawler Hinweise entdeckt zu haben.

Werden die Links die scheinbar keinen Bezug haben automatisch gelöscht, oder kann ich dem nachhelfen?

PS2: Die Yahoo Crawler haben keine Fehler gefunden (Quelle : Yahoo SiteExplorer) ist das noch normal?

Verfasst: 16.05.2011, 08:41
von Hirnhamster
Was meinst du mit "die keinen Bezug haben"?

Verfasst: 16.05.2011, 09:48
von SEO-NERD
Was meinst du mit "die keinen Bezug haben"?
Naja ist geht um den Shop https://www.accio-shop.de, für den betreibe ich Internet Marketing usw...

Jetzt wird mir jedoch in Google Webmaster Tools eine Liste mit "Link die nicht gefunden werden insg 85.000" angezeigt.
Diese haben folgende Form

https://www.accio-shop.de/lshop,inline, ... ,,61,,.htm
Dieses Format haben alle dieser angegebenen Links

Zudem sagt mir Google noch das 100.000 Links angeblich durch unsere derzeitige robots.txt gesperrt seien

BSP:https://www.accio-shop.de/shop125655195 ... 027,,,.htm

Jedoch muss man sagen, dass die dort angegebenen Links, noch aus unserem alten Shop stammen, die Hauptdomain hat sich nachdem KK-Antrag nicht geändert.

Mach mir halt Sorgen, dass obwohl unser neuer Shop mit der neuen Software die noch besser auf Sumas abgestimmt ist, irgendwo/wie noch Probleme aufweist.

Insgesamt ist unser neuer Shop seit 2 Wochen online.
Hatte vorher auch der Domain recht guten Traffic und Seo Werte

Verfasst: 16.05.2011, 11:26
von JR-EWING
also die Seiten geben einen 404er aus und ist ja daher nicht im Index

https://www.google.de/search?hl=de&ie=I ... =&aql=&oq=

Vielleicht solltet ihr euch überlegen bei so einer großen Anzahl auch mit Weiterleitungen (Canonical) zu arbeiten ?

Verfasst: 17.05.2011, 08:11
von twitch
[quote="JR-EWING"]also die Seiten geben einen 404er aus und ist ja daher nicht im Index[quote]

das geht aber auch nciht von heut auf morgen mit dem rausschmeißen.

Verfasst: 17.05.2011, 08:14
von JR-EWING
Ne natürlich nur wenn Google die Seite spidert und so den 404 erkennen kann.

Verfasst: 17.05.2011, 12:56
von SEO-NERD
aha ok, na das ist doch schon mal was, dann muss ich mich halt geduldigen, was nicht leicht ist.
Beeinträchtigen solche 404-Fehler Seiten die Positionierung der Seite/der Produkte?

Mal noch ne Frage: Welche Seo Tools benutzt ihr denn so?

Ich nutze folgende
seittest
seitwert - naja, sollte man nicht zu ernst nehmen :Fade-color
backlinktest.com
x4d Backlinkchecker
diagnose.com
searchmetrics
W3 Validator/W3C Validator

Steh halt auf Zahlen, bei den TOols ist mir besonders wichtig, die Popularität, Verbreitung, Backlinks und COntent der Seite analysieren zu können

Verfasst: 17.05.2011, 13:08
von JR-EWING
404er sind so ne Sache. Da sind sich viele SEOs selber nicht einig. Ist für Google halt ne Einbahnstrasse. Ich bevorzuge daher Weiterleitungen - nicht nur um die Fehler aus den WMT raus zu bekommen sondern um auch den Linkjuice weiter zu transportieren. Und eines ist auch klar. Wenn 90% deiner Seiten einen 404er ausgeben - was glaubst du wie Google deine Seite hier bewertet ? Jeder Zugriff ist also für Google nen Fehler. Somit wird sich das auch negativ auswirken. Wenn du aber nur 1-2% 404er Fehler hast - ist das nicht so tragisch. Versuch Sie jedoch wegzubringen.

Zu deiner Frage mit den Seo Tools - ist ja schon ein Haufen denn du da nutzt. Wobei ich sagen muss mach dazu doch am Besten ein neues Thema auf - weil beides hier abzufackeln macht keinen Sinn.

Verfasst: 17.05.2011, 13:10
von Hirnhamster
SEO-NERD hat geschrieben:aha ok, na das ist doch schon mal was, dann muss ich mich halt geduldigen, was nicht leicht ist.
Beeinträchtigen solche 404-Fehler Seiten die Positionierung der Seite/der Produkte?
nein, siehe https://googlewebmastercentral.blogspot ... -site.html - Außer natürlich, es handelt sich gerade um die Seiten, die ranken sollen. Wenn Google diese als 404 vorfindet, dann kommen sie nicht in den Index.
SEO-NERD hat geschrieben: Mal noch ne Frage: Welche Seo Tools benutzt ihr denn so?

Ich nutze folgende
seittest
seitwert - naja, sollte man nicht zu ernst nehmen :Fade-color
backlinktest.com
x4d Backlinkchecker
diagnose.com
searchmetrics
W3 Validator/W3C Validator

Steh halt auf Zahlen, bei den TOols ist mir besonders wichtig, die Popularität, Verbreitung, Backlinks und COntent der Seite analysieren zu können
Nur https://rapid.searchmetrics.com/en/seo- ... ty,14.html

Tools, die Content analysieren sind für die Tonne. Außerdem würde ich mich NIE auf irgendwelche Zahlen verlassen, wenn ich nicht weiß, wo die herkommen bzw. wie sie berechnet werden. So kann man zum Beispiel den errechneten "realen" PR bei x4d mMn ebenfalls nicht ernst nehmen, da die PR Berechnung weitaus komplexer ist, als ein paar konstante Werte zu nehmen und diese durch die Anzahl ausgehender Links zu teilen.