Herzlich willkommen im Archiv vom ABAKUS Online Marketing Forum
Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.
Wenn man beim Aufruf einer nicht existierenden URL auf Deiner Startseite landet, dann hast Du offenbar eine Weiterleitung eingebaut. Wenn Du aber ständig "Seite ist umgezogen" meldest statt "Seite gibt's nicht (mehr)", ist es kein Wunder, dass die alten URLs nicht aus den Suchmaschinen verschwinden.eanst hat geschrieben:google hat immernoch (nach gut 1,5 Jahre) rund 1.000 alte urls von meiner seite im index. wenn man auf eine dieser alten urls in den ergebnislisten von google klickt, landet man dann auf meiner startseite.
Die betroffenen URLs werden von einigen Suchmaschinen auch weiterhin gelistet, zwar ohne jeglichen Inhalt und damit außer mittels site: nicht zu finden, nichtsdestotrotz verschwinden sie bisweilen nicht gänzlich. Der Grund ist normalerweise, dass noch irgendwo Verweise auf die ausgeschlossenen URLs existieren.eanst hat geschrieben:kann ich evtl. auch einfach mit der robot.txt arbeiten? wenn ja, wie?
Welche Möglichkeiten Du hast, steht in der robots.txt-Anleitung und in der Google-Anleitung zur robots.txt. Beachte bitte, dass das, was Google an Funktionalität anbietet, nicht unbedingt von anderen angeboten wird.wie kann man mit der robot.txt mehrere ähnliche urls definieren. so wie in meinem ertsen beitrag definiert...
Über Plesk geht das folgendermaßen:eanst hat geschrieben:ok, ich würde gerne das mit dem errordocument durchführen.
über plesk kann mna das anscheinend nicht!?
Existiert die index.php noch, sieht's allerdings etwas anders aus, weil der Knackpunkt dann in diesem Skript steckt.Die Plesk-Anleitung hat geschrieben:To configure Plesk’s web server to show your custom error pages:
1 Switch on support for custom error documents through Plesk. On your Home page, click the domain name you need, and then click Setup. Select the Custom Error Documents check box. Click OK.
2 […] connect to your FTP account on the Plesk server, and go to the error_docs directory.[…]
3 Edit or replace the respective files. Be sure to preserve the correct file names:
* 400 Bad File Request - bad_request.html
* 401 Unauthorized - unauthorized.html
* 403 Forbidden/Access denied - forbidden.html
* 404 Not Found - not_found.html
* 500 Internal Server Error - internal_server_error.html
4 Wait for a few hours till your web server is restarted. After that, the web server will start using your error documents.
Wenn das so ist, reichen dreieinhalb Zeilen am Anfang der index.php:eanst hat geschrieben:die parameterübergabe von open, vertragid etc. (also die in den alten urls) werden von meinen momentanen scripten nicht mehr verwendet!
Wenn Du keinen Fehler lieferst sondern immer mit OK antwortest, sind die URLs aus Googles Sicht nicht fehlerhaft.kann es sein das der google es nun seit über einem jahr noch nicht geschafft hat die fehlerhaften, alten urls aus seinem index zu entfernen?
Wenn die robots.txt-Lösung als nicht ausreichend empfunden wird, Nägel mit Köpfen machen:Fisch hat geschrieben:Wie bekomme ich die rund 80.000 Dateien mit der phpsessid Endung nun aus dem Index?