weiß nicht, ob's hier reinpasst, aber ich hab kein besseres Thema gefunden ...
Meine Onlinestatistik (mit Webalizer2) zeigt mir eine ziemlich große Anzahl an "404 Not Found". Leider zeigt sie nicht, was genau nicht gefunden wurde.
Kann das auch die fehlende robots.txt sei, die bei jedem Robot-Besuch gezählt wird?
Gibt es ein Tool, um die Links der kompletten Webseite zu testen?
Ja es kann natürlich auch eine nicht vorhande "robots.txt"- Datei sein...
Das Beste ist es, die Roh-Logfiles mithilfe der FTP sich runterladen und dann mit einem Programm analysieren lassen, z.B. mit Freeware - "AccessInfo 3.8"
hm ... kaum fragt man, findet man selbst die Lösung. Mein Hoster bietet die Auswertung der Fehlerseiten separat an.
War tatsächlich hauptsächlich die robots.txt (habe ich jetzt eingefügt). Hab aber auch einen fehlerhaften Link gefunden