Seite 1 von 1
Problem mit URL Removals / URL Löschungen aus Google Index
Verfasst: 21.05.2007, 07:10
von chrimaphi
Guten Morgen an alle SEOs
Also wir haben zurzeit ein folgendes Problem. Im google Index sind einige Seiten die es nicht mehr gibt bzw. die nicht angezeigt werden dürfen. Wir habden alle URLS mit einem 404 versehen und sie bei Google Url Removals eingereicht. Nach 1 Tag wird in den Webmastertools "Denied" angezeigt bei den zu löschenden URLS.
Wir wissen nun nicht warum dies nicht aus dem Index genommen werden. Ist doch alles richtig oder?? Auch haben wir vor der 404 Variante die zu löschenden Urls in die Robot.txt eingetragen mit dem Befehl:
Disallow: /URL......
Vielleicht habt Ihr ähnliche Erfahrungen gemacht oder das Tool steckt noch in den Kinderschuehn und funzt net richtig. Sind dankbar für jede Antwort zu dem Thema.
Gruß Marcell
Verfasst: 21.05.2007, 07:22
von net(t)worker
naja... genauso wie man ein paar Tage braucht um ne URL da rein zu bekommen, dauert es auch schon mal ein paar Tage um die da wieder rauszubekommen...
das denied bedeutet wohl, dass der bot aufgrund der robots.txt die url's nicht mehr crawlen darf... und für das removal tool sollte das auch ausreichen...
wenn eine url/seite in den serps nicht angezeigt werden soll, wäre hier ggf. ein noindex in den metatags besser geeignet.... selbst bei sperrung per robots.txt wird zumindest die url in den serps angezeigt sobald es auch nur 1 link darauf gibt....
Verfasst: 21.05.2007, 08:27
von chrimaphi
kann ich mir ehrlichgesagt nicht vorstellen.
Denied heist übersetzt soviel wie....abgelehnt, zurückgewisen, abgewiesen.
So wie ichs verstehe wird die Anfrage der Url Löschung jetzt nicht mehr bearbeitet. Grund von Google gibts leider keinen. Bin am verwzeifeln........
Verfasst: 21.05.2007, 08:34
von GreenHorn
chrimaphi hat geschrieben: Denied heist übersetzt soviel wie....abgelehnt, zurückgewisen, abgewiesen.
Richtig, erzeug nen 404 für die zu löschenden Seiten und alles ist in Butter.
Auch wenn der thread kontrovers ist:
removal request denied
Verfasst: 21.05.2007, 08:38
von chrimaphi
@Greenhorn
Das ist ja gerade das Problem....die zu löschenden Urls weisen alle einen 404er auf und trotzem funzt es nicht.
Verfasst: 21.05.2007, 21:16
von holch
Ich habe es über die Robots.txt und Webmaster Tools versucht. Nachdem ich die Robots.txt korrigiert hatte, dauerte es keinen halben Tag, bis der Ordner aus dem Index war (siehe den Thread den Greenhorn als kontrovers bezeichnet).
Jetzt bleibt nur noch die Frage was passiert, wenn jemand darauf von aussen verlinkt. Aber warum sollte ein Link von aussen anders behandelt werden als meine interne Verlinkung und die ist ja nach wie vor vorhanden.
Warum allerdings deine 404er noch drin sind ist mir ein Rätsel. Was eindeutigeres gibt es ja nicht. Aber Google schein Content ungern aufgeben zu wollen.

Verfasst: 21.05.2007, 21:24
von net(t)worker
hier mal ein Artikel über die Unterschiede von robots.txt und dem noindex metatag
robots.txt oder noindex - Unterschiede und Auswirkungen
da du die url's nu aber über das removal tool entfernt hast, sollten diese eh erstmal für 180 Tage raus sein...
Verfasst: 27.05.2007, 20:30
von chrimaphi
Kurzer Zwischenstand.
Alle unsere Seiten im Supplemental Index wurden mit einem 404er versehen und bei "URL-Removals" in Google Webmaster Tools eingereicht. Leider sind Sie immernoch drinne nach 1 Woche warten.....wird sich nichts mehr tun. Ich will jetzt alle 60 Seiten im supplemental Index in der rotbots.txt Datei auschließen für den Googlebot, was ich auch vorher schon versucht hatte aber vielleicht falsch eingetragen. So haben wirs in die Robots.txt eingetragen aber nichts passiert.
Disallow: /xxxxxx.html
also ohne die komplette URl zu nennen nur die html Datei hinter dem / . Oder muss die komplette URL in die Robots.txt???
Bitte um Hilfe bei der Sache wir wissen nicht mehr weiter wie wir die Seiten rausbekommen sollen aus dem supplemental Index.
Das Hauptproblem besteht darin, das der supplement Index mehr als 50% unserer Seiten ausmacht. Daher sind wir zurzeit in den Ergebnisses der G...Suche auf den letzten Plätzen seit ca 6 Wochen......verbannt worden
Verfasst: 27.05.2007, 20:57
von net(t)worker
chrimaphi hat geschrieben:Kurzer Zwischenstand.
Alle unsere Seiten im Supplemental Index wurden mit einem 404er versehen und bei "URL-Removals" in Google Webmaster Tools eingereicht. Leider sind Sie immernoch drinne nach 1 Woche warten.....
Ahhhh.... Supplemental Index....
In irgendeinem Thread hier im Forum hab ich innerhalb der letzten Tage gelesen, dass man eine URL aus dem Supplemental Index nicht mit dem removal tool rauslöschen kann... ob es stimmt... keine Ahnung... aber als Ansatz für weitere Recherchen besser als nix...
Verfasst: 27.05.2007, 21:13
von Solander
Also,
ich habe erst gestern einige Seiten entfernt, die im Supplemental Index festhingen. Ein ganz mies konfiguriertes Forum bei meiner Seite, das haufenweise DC produziert hat und mittlerweile nicht mehr existiert. Um da mal etwas aufzuräumen, habe ich Löschantrag gestellt und alle Seiten (auch Supplemental Index) waren innerhalb von ein paar Stunden weg. Aber evtl. hat es da geklappt, weil ich ein komplettes verzeichnis habe löschen lassen, das sowohl Supplemental als auch normale Seiten enthielt.
Greg
Verfasst: 27.05.2007, 21:14
von chrimaphi
Ja das ist ein guter Ansatz...dankeschön, dann kann ich mir schonmal die Mühe sparen die 60 Seiten bei Url-Löschungen einzutragen....
Nur wie bekomm ich nur meine Seiten aus dem supplemental Index raus??Mit der Robots.txt müsste es doch funktionieren oder? Könnt Ihr mir ein Beispiel geben wie genau ene Url in der robots.txt aufgelistet wird?
Gruß
Verfasst: 27.05.2007, 21:20
von net(t)worker
robots.txt verhindert das crawlen, aber dennoch können die seiten im index landen, bzw. drinbleiben... dann besser den noindex-metatag ausgeben lassen...
Verfasst: 27.05.2007, 21:21
von Solander
Die Dateien müssen exakt so gelistet sein, wie die URL lautet.
Sprich:
www. domain .de /verzeichnis/datei.html
würde dann zu
Disallow: /verzeichnis/datei.html
Habe bei mir, weil die Seiten in einem verzeichnis waren, halt nur den Ordner genommen, aber wie oben genannt kann man auch einzelne Seiten angeben.
Weitere infos hier:
https://de.wikipedia.org/wiki/Robots_Exclusion_Standard. Da gibts ein paar sehr anschauliche Beispiele.
Greg
Verfasst: 29.05.2007, 10:15
von chrimaphi
Kein Erflog leider auch mit der Robot.txt
alle Seiten sind nach wie vor im supplemental Index indiziert.
Hab gerade in einem anderen Thread gelesen, dass es unmöglich ist Seiten aus dem supplemental Index zu löschen.....ist da was drann.??
Wenn ja wie bekomme ich die Seiten da jemals wieder raus??
Danke für eure Hilfe