Seite 1 von 1

URL entfernen in Webmaster Tools unmöglich, seltsamer Fehler

Verfasst: 03.10.2008, 19:43
von Keyser Soze
Ich versuche verzweifelt, einige URLs meiner Webseite aus dem Google-Index zu bekommen und der "Antrag auf Entfernung" in den Google Webmaster Tools wird jedes Mal abgelehnt. Ich kann die Seiten leider nur auf diesem Weg entfernen und nicht über die robots.txt, weil ich nur einige Seiten mit bestimmten dynamischen Parametern entfernen will, die für Duplicate Content sorgen.
Die Fehlermeldung in den Google Webmaster Tools ist die folgende:
Der Content, den Sie zur Entfernung aus dem Cache eingereicht haben, wird online auf der Drittanbieter-Webseite angezeigt.
Ähm ja. Was soll mir das jetzt bitte sagen? Abgesehen davon, dass ich nicht verstehe, was die mir sagen wollen und wo der Fehler liegen soll, habe ich mitnichten eine Entfernung aus dem "Cache" angeleiert, sondern eine Entfernung aus den Suchergebnissen.
Suche ich nach der o.g. Fehlermeldung in Google, finde ich keine Treffer. Ich bin mit meinem Latein echt am Ende. Meine Domain ist korrekt authentifiziert in den Webmaster Tools und wenn ich die zu entfernende URL per Copy&Paste bei www.web-sniffer.net eingebe, sehe ich dass ein HTTP-Status-Code 200 zurückgegeben wird und im Header der Seite steht ein
<meta name="robots" content="noindex, nofollow">
was ja für eine Entfernung der Seite aus dem Google-Index reichen sollte.
Was mache ich falsch? Oder funzt dieses Tool zum Entfernen von URLs bei Google momentan nicht?? Zur Hülf! :wink:

Verfasst:
von
Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Verfasst: 03.10.2008, 22:12
von myself
Da scheint in der Tat ein Fehler im Programm zu sein.

Die gleiche Antwort hab ich bei ner Seite bekommen, die keine Inhalte mehr hat und alle Aufrufe auf 404 lauten.
Ich kann nicht einzelne Seiten löschen, nicht die komplette Seite .... immer die selbe Antwort

Verfasst: 04.10.2008, 09:58
von Keyser Soze
Was tun, sprach Zeus...

Ich erwarte nicht, dass es Erfolg haben könnte, den G.Support zu kontaktieren. Auf meine bisherigen Anfragen in Sachen Webmaster Tools (schon Monate her) hat auch nie jemand geantwortet.

Verfasst:
von

Re: URL entfernen in Webmaster Tools unmöglich, seltsamer Fe

Verfasst: 06.10.2008, 10:03
von undertaker
Keyser Soze hat geschrieben: Die Fehlermeldung in den Google Webmaster Tools ist die folgende:
Der Content, den Sie zur Entfernung aus dem Cache eingereicht haben, wird online auf der Drittanbieter-Webseite angezeigt.
Vielleicht wurde die betreffende Seite gehijackt.



Gruß vom Untertaker

Re: URL entfernen in Webmaster Tools unmöglich, seltsamer Fe

Verfasst: 06.10.2008, 10:11
von Keyser Soze
undertaker hat geschrieben:Vielleicht wurde die betreffende Seite gehijackt?
Ersten Beitrag dieses Threads aufmerksam lesen, sollte die Frage beantworten.
Abgesehen davon betrifft es mittlerweile alle meine Webseiten, die Subdomains nutzen.
@myself: War die bei dir betroffene Domain auch eine Subdomain?

Re: URL entfernen in Webmaster Tools unmöglich, seltsamer Fe

Verfasst: 06.10.2008, 10:16
von myself
Keyser Soze hat geschrieben: @myself: War die bei dir betroffene Domain auch eine Subdomain?
sowohl als auch ... zu löschen geht grad gar nix, wie mir scheint :roll:

Verfasst: 06.10.2008, 15:18
von luzie
fragt doch mal hier nach (oder lest, die seitenlöschfragen kommen dort dauernd):

https://groups.google.com/group/Google_ ... er_Help-de

übrigens ist da nichts gehijackt oder sonstwas, das seiten-löschen ist eben auch so 'ne wissenschaft für sich, da dreht und windet sich google bis dort hinaus :roll:

Verfasst: 06.10.2008, 16:35
von Ehemalige Nutzer Z
Mmmh per robots.txt gehts super. binner 15min war bei mir eine komplette subdomain ausm index. 500-600 seiten, pr weg alles. das geht mittlerweile verdammt gut.

und die dc-seiten per 301 auf die originalen seiter weiterleiten?

Verfasst: 06.10.2008, 20:22
von Keyser Soze
zuendschnur hat geschrieben:Mmmh per robots.txt gehts super. binner 15min war bei mir eine komplette subdomain ausm index. 500-600 seiten, pr weg alles. das geht mittlerweile verdammt gut.
Ja, mit robots.txt gehts. Nutzt mir in meinem Fall aber nichts (selektives Löschen einzelner Parameter).
und die dc-seiten per 301 auf die originalen seiter weiterleiten?
Bringt den Nachteil mit sich, dass Google die URLs weiterhin ständig doppelt crawlen würde und die Serverbelastung deshalb höher bleibt.

Verfasst: 21.10.2008, 15:15
von Keyser Soze
Sauber, jetzt kann ich nicht mal über die robots.txt mehr URLs entfernen.

Ich habe mich an https://www.google.com/support/webmaste ... swer=40367 gehalten und die unerwünschten Parameter so geblockt in der robots.txt.
Anschließend habe ich unter dem Eintrag "robots.txt analysieren" in den Google Webmaster Tools getestet, ob die gewünschten URLs wirklich für den Googlebot gesperrt sind. Das wurde von Google nach dem Absenden des Check-Formulars bejaht.

Also habe ich dann mal testweise eine der betroffenen URLs unter "URLs entfernen" eingetragen. Und was passierte? Genau dieselbe dämliche Fehlermeldung wie im ersten Beitrag dieses Threads.
:bad-words: