Kralle hat geschrieben:Fehlertoleranz von Google ist die eine Seite. Aber auch die hat dann ihre Grenzen wenn die Fehler derart gravierend sind, daß die Seite nicht mehr ausgewertet werden kann. Insbesondere bei nicht-validen html- und body-Tags reagiert Google allergisch. Zudem kann nicht-valider Code den semantischen Inhalt einer Seite u. U. verfälschen.
na wie werden denn die Fehler verursacht ?
er zeigt mir an 1001 Seite nicht gefunden
Code: Alles auswählen
404 (Nicht gefunden)
Die gewünschte Seite wurde nicht vom Server gefunden. Dieser Code wird häufig zurückgegeben, wenn eine Seite angefordert wird, die nicht auf dem Server vorhanden ist. Falls Ihre Website über keine robots.txt-Datei verfügt und dieser Statuscode auf der robots.txt-Seite der Registerkarte "Fehler" in Google Sitemaps angezeigt wird, ist der Status korrekt. Falls dieser Statuscode zurückgegeben wird, obwohl eine robots.txt-Datei vorhanden ist, weist Ihre robots.txt-Datei möglicherweise einen falschen Namen oder Speicherort auf. Die Datei muss unter dem Namen robots.txt auf der obersten Ebene der Domain gespeichert sein. Falls dieser Status für von Googlebot durchsuchte URLs auf der HTTP-Fehlerseite der Registerkarte "Fehler" angezeigt wird, ist Googlebot sehr wahrscheinlich einem ungültigen Link, d. h. einem alten oder falsch geschriebenen Link, auf einer anderen Seite gefolgt.
ich habe jetze die Robot.txt hier von Abakus genommen
und wo ich das
hat er nur an ein paar br tags rumgenögelt
