Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

404-Seiten finden

Ajax, Hijax, Microformats, RDF, Markup, HTML, PHP, CSS, MySQL, htaccess, robots.txt, CGI, Java, Javascript usw.
Neues Thema Antworten
Milli
PostRank 2
PostRank 2
Beiträge: 46
Registriert: 30.01.2006, 19:16
Wohnort: bei Hannover

Beitrag von Milli » 06.02.2006, 19:45

Hallo,

weiß nicht, ob's hier reinpasst, aber ich hab kein besseres Thema gefunden ...

Meine Onlinestatistik (mit Webalizer2) zeigt mir eine ziemlich große Anzahl an "404 Not Found". Leider zeigt sie nicht, was genau nicht gefunden wurde.

Kann das auch die fehlende robots.txt sei, die bei jedem Robot-Besuch gezählt wird?
Gibt es ein Tool, um die Links der kompletten Webseite zu testen?

Milli

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

chris21
PostRank 9
PostRank 9
Beiträge: 2758
Registriert: 10.04.2005, 18:17

Beitrag von chris21 » 06.02.2006, 19:54

Wie wäre es denn, wenn Du ein Skript einsetzt, um 404 Errors zu loggen?

Z.B. eines von diesen hier:

https://www.script-archiv.com/PHP/Scrip ... dex_1.html

Hasso
PostRank 9
PostRank 9
Beiträge: 2107
Registriert: 12.01.2004, 13:18

Beitrag von Hasso » 06.02.2006, 19:54

Ja es kann natürlich auch eine nicht vorhande "robots.txt"- Datei sein...

Das Beste ist es, die Roh-Logfiles mithilfe der FTP sich runterladen und dann mit einem Programm analysieren lassen, z.B. mit Freeware - "AccessInfo 3.8"

Grüsse
Hasso