Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

404-Seiten finden

Ajax, Hijax, Microformats, RDF, Markup, HTML, PHP, CSS, MySQL, htaccess, robots.txt, CGI, Java, Javascript usw.
Neues Thema Antworten
Milli
PostRank 2
PostRank 2
Beiträge: 46
Registriert: 30.01.2006, 19:16
Wohnort: bei Hannover

Beitrag von Milli » 06.02.2006, 19:45

Hallo,

weiß nicht, ob's hier reinpasst, aber ich hab kein besseres Thema gefunden ...

Meine Onlinestatistik (mit Webalizer2) zeigt mir eine ziemlich große Anzahl an "404 Not Found". Leider zeigt sie nicht, was genau nicht gefunden wurde.

Kann das auch die fehlende robots.txt sei, die bei jedem Robot-Besuch gezählt wird?
Gibt es ein Tool, um die Links der kompletten Webseite zu testen?

Milli

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

chris21
PostRank 9
PostRank 9
Beiträge: 2758
Registriert: 10.04.2005, 18:17

Beitrag von chris21 » 06.02.2006, 19:54

Wie wäre es denn, wenn Du ein Skript einsetzt, um 404 Errors zu loggen?

Z.B. eines von diesen hier:

https://www.script-archiv.com/PHP/Scrip ... dex_1.html

Hasso
PostRank 9
PostRank 9
Beiträge: 2107
Registriert: 12.01.2004, 13:18

Beitrag von Hasso » 06.02.2006, 19:54

Ja es kann natürlich auch eine nicht vorhande "robots.txt"- Datei sein...

Das Beste ist es, die Roh-Logfiles mithilfe der FTP sich runterladen und dann mit einem Programm analysieren lassen, z.B. mit Freeware - "AccessInfo 3.8"

Grüsse
Hasso

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Milli
PostRank 2
PostRank 2
Beiträge: 46
Registriert: 30.01.2006, 19:16
Wohnort: bei Hannover

Beitrag von Milli » 06.02.2006, 19:57

Wie wäre es denn, wenn Du ein Skript einsetzt, um 404 Errors zu loggen?
Mein Webpaket beinhaltet leider kein php. Daher fällt diese Möglichkeit erstmal raus ...

Shqiperia
PostRank 1
PostRank 1
Beiträge: 9
Registriert: 16.01.2005, 18:07
Wohnort: Durrës

Beitrag von Shqiperia » 06.02.2006, 20:00

Gibt es ein Tool, um die Links der kompletten Webseite zu testen?
Ich nehme immer Xenu Link Sleuth.

Milli
PostRank 2
PostRank 2
Beiträge: 46
Registriert: 30.01.2006, 19:16
Wohnort: bei Hannover

Beitrag von Milli » 06.02.2006, 20:29

hm ... kaum fragt man, findet man selbst die Lösung. Mein Hoster bietet die Auswertung der Fehlerseiten separat an.
War tatsächlich hauptsächlich die robots.txt (habe ich jetzt eingefügt). Hab aber auch einen fehlerhaften Link gefunden :-)

Trotzdem danke für eure Hilfe!

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag