Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Warum verweigert Google meinen "URL removal request&quo

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
holch
PostRank 6
PostRank 6
Beiträge: 410
Registriert: 08.03.2005, 20:23
Wohnort: Nürnberg

Beitrag von holch » 15.05.2007, 23:36

Ich würde gerne den RSS-Feed meines Blogs aus den Suchergebnissen entfernen. Also dachte ich mir, da gibts doch was von Ratio..., äh, nein, Google Webmaster Tools. Also ausprobiert. Vorher noch wie von Google gefordert per robots.txt den Folder feed/ für die Robots verboten.

Jetzt hab' ich nach einiger Zeit mal wieder nachgesehen und die URL https://www.rothemund.org/feed/ ist noch in den SERPS (per site:Abfrage gesucht).

In den Webmaster Tools findet man dann "Status: denied", siehe Screenshot unter https://www.rothemund.org/2007/05/16/go ... st-denied/ .

Kann mir jemand einen guten Grund nennen, warum Google mir das verweigert? Liegt es daran, dass es ein Feed ist? (Spricht eigentlich irgend etwas dagegen den Feed aus den Serps zu nehmen?). Ist an der robots.txt etwas falsch?

Danke schon mal für die Mühe. Würde mich einfach interessieren, ob es da einen vernünftigen Grund gibt oder die Jungs bei Google einfach keinen Bock haben. ;-)

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

GreenHorn
PostRank 10
PostRank 10
Beiträge: 4487
Registriert: 19.12.2005, 15:01

Beitrag von GreenHorn » 15.05.2007, 23:42

Weil die von dir zur Löschung angegebene URL nicht den entsprechend von google gewünschten Fehlercode 404 oder 410 zurück gibt...

holch
PostRank 6
PostRank 6
Beiträge: 410
Registriert: 08.03.2005, 20:23
Wohnort: Nürnberg

Beitrag von holch » 15.05.2007, 23:50

Danke für deine Antwort, aber daran kann es nicht liegen. Denn wenn ich den Code ausliefere fliegt über kurz oder lang sowieso alles, da die Datei ja nicht mehr vorhanden ist. Also ich will ja, dass die Seite erreichbar ist, aber eben nicht im Index auftaucht.

Außerdem ist das ja auch nur EINE der 3 angebotenen Möglichkeiten:
To remove content from the Google index, do one of the following:

* Ensure requests for the page return an HTTP status code of either 404 or 410. [?]
* Block the page using a robots.txt file. [?]
* Block the page using a meta noindex tag. [?]
Ich habe mich für die Lösung mit der Robots.txt entschieden, weil ich die Seite eben schon erreichbar haben möchte, also keinen 404 oder 410 ausliefern kann. Ein meta noindex möchte ich in einen RSS-Feed auch nicht einbauen. ;-)

Also bleibt nur noch Robots.txt.

Liegt es vielleicht an dem ersten leeren "Disallow:"?