Seite 1 von 1

Robots.txt - Fehler 500

Verfasst: 07.10.2005, 11:13
von ole1210
Hallo Forum,

meine Robots.txt bereitet mir arges Kopfzerbrechen.

Da unsere Webseite zu umfabgreich wurde haben wir seit einiger zeit daran gearbeitet sie auf ein Datenbanksystem umzustellen und gestern Abend auch hochgeladen.
Da durch das neue System die alten Seiten nicht mehr existieren (ich weiss, nicht unbedingt ideal), habe ich eine robots.txt mit folgendem Inhalt angelegt:
ErrorDocument 404 https://www.domain.de
Dadurch werden Besucher die in Sumas noch eine alte Seite finden auf die Startseite weitergeleitet.

Jetzt gerade habe ich die robots.txt ergänzt. Ich wollte ein Verzeichnis sperren.
Jetzt sieht die robots.txt so aus:
ErrorDocument 404 https://www.domain.de
User-agent: *
Disallow: /cgi/
User-agent: googlebot
Disallow: /cgi/
Allerdings meldet die Seite dann beim Aufruf "Error 500". Woran kann das liegen?

Viele Grüsse

Ole

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Robots.txt - Fehler 500

Verfasst: 07.10.2005, 11:41
von csx
Vielleicht daran, dass das ErrorDocument nicht in die robots.txt gehört sondern in die htaccess-Datei.

Allerdings sollte es trotzdem keinen 500 geben, da der Apache die Datei ja nur als text/plain zurückschicken sollte...

Robots.txt - Fehler 500

Verfasst: 07.10.2005, 11:42
von ole1210
Oh mist!
Ich glaub ich brauche GANZ dringend Wochenende!

Das wars!

Danke!