Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Robots.txt - Fehler 500

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
ole1210
PostRank 10
PostRank 10
Beiträge: 7464
Registriert: 12.08.2005, 10:40
Wohnort: Olpe

Beitrag von ole1210 » 07.10.2005, 11:13

Hallo Forum,

meine Robots.txt bereitet mir arges Kopfzerbrechen.

Da unsere Webseite zu umfabgreich wurde haben wir seit einiger zeit daran gearbeitet sie auf ein Datenbanksystem umzustellen und gestern Abend auch hochgeladen.
Da durch das neue System die alten Seiten nicht mehr existieren (ich weiss, nicht unbedingt ideal), habe ich eine robots.txt mit folgendem Inhalt angelegt:
ErrorDocument 404 https://www.domain.de
Dadurch werden Besucher die in Sumas noch eine alte Seite finden auf die Startseite weitergeleitet.

Jetzt gerade habe ich die robots.txt ergänzt. Ich wollte ein Verzeichnis sperren.
Jetzt sieht die robots.txt so aus:
ErrorDocument 404 https://www.domain.de
User-agent: *
Disallow: /cgi/
User-agent: googlebot
Disallow: /cgi/
Allerdings meldet die Seite dann beim Aufruf "Error 500". Woran kann das liegen?

Viele Grüsse

Ole