Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

URL entfernen in Webmaster Tools unmöglich, seltsamer Fehler

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
Keyser Soze
PostRank 9
PostRank 9
Beiträge: 1414
Registriert: 07.09.2004, 08:58

Beitrag von Keyser Soze » 03.10.2008, 19:43

Ich versuche verzweifelt, einige URLs meiner Webseite aus dem Google-Index zu bekommen und der "Antrag auf Entfernung" in den Google Webmaster Tools wird jedes Mal abgelehnt. Ich kann die Seiten leider nur auf diesem Weg entfernen und nicht über die robots.txt, weil ich nur einige Seiten mit bestimmten dynamischen Parametern entfernen will, die für Duplicate Content sorgen.
Die Fehlermeldung in den Google Webmaster Tools ist die folgende:
Der Content, den Sie zur Entfernung aus dem Cache eingereicht haben, wird online auf der Drittanbieter-Webseite angezeigt.
Ähm ja. Was soll mir das jetzt bitte sagen? Abgesehen davon, dass ich nicht verstehe, was die mir sagen wollen und wo der Fehler liegen soll, habe ich mitnichten eine Entfernung aus dem "Cache" angeleiert, sondern eine Entfernung aus den Suchergebnissen.
Suche ich nach der o.g. Fehlermeldung in Google, finde ich keine Treffer. Ich bin mit meinem Latein echt am Ende. Meine Domain ist korrekt authentifiziert in den Webmaster Tools und wenn ich die zu entfernende URL per Copy&Paste bei www.web-sniffer.net eingebe, sehe ich dass ein HTTP-Status-Code 200 zurückgegeben wird und im Header der Seite steht ein
<meta name="robots" content="noindex, nofollow">
was ja für eine Entfernung der Seite aus dem Google-Index reichen sollte.
Was mache ich falsch? Oder funzt dieses Tool zum Entfernen von URLs bei Google momentan nicht?? Zur Hülf! :wink:
[url=httpss://www.vermarktercheck.de]VermarkterCheck.de[/url] - Webseiten-Vermarkter im Vergleich

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

myself
PostRank 3
PostRank 3
Beiträge: 75
Registriert: 25.01.2008, 11:49

Beitrag von myself » 03.10.2008, 22:12

Da scheint in der Tat ein Fehler im Programm zu sein.

Die gleiche Antwort hab ich bei ner Seite bekommen, die keine Inhalte mehr hat und alle Aufrufe auf 404 lauten.
Ich kann nicht einzelne Seiten löschen, nicht die komplette Seite .... immer die selbe Antwort

Keyser Soze
PostRank 9
PostRank 9
Beiträge: 1414
Registriert: 07.09.2004, 08:58

Beitrag von Keyser Soze » 04.10.2008, 09:58

Was tun, sprach Zeus...

Ich erwarte nicht, dass es Erfolg haben könnte, den G.Support zu kontaktieren. Auf meine bisherigen Anfragen in Sachen Webmaster Tools (schon Monate her) hat auch nie jemand geantwortet.
[url=httpss://www.vermarktercheck.de]VermarkterCheck.de[/url] - Webseiten-Vermarkter im Vergleich

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


undertaker
PostRank 4
PostRank 4
Beiträge: 154
Registriert: 14.12.2007, 15:19

Beitrag von undertaker » 06.10.2008, 10:03

Keyser Soze hat geschrieben: Die Fehlermeldung in den Google Webmaster Tools ist die folgende:
Der Content, den Sie zur Entfernung aus dem Cache eingereicht haben, wird online auf der Drittanbieter-Webseite angezeigt.
Vielleicht wurde die betreffende Seite gehijackt.



Gruß vom Untertaker

Keyser Soze
PostRank 9
PostRank 9
Beiträge: 1414
Registriert: 07.09.2004, 08:58

Beitrag von Keyser Soze » 06.10.2008, 10:11

undertaker hat geschrieben:Vielleicht wurde die betreffende Seite gehijackt?
Ersten Beitrag dieses Threads aufmerksam lesen, sollte die Frage beantworten.
Abgesehen davon betrifft es mittlerweile alle meine Webseiten, die Subdomains nutzen.
@myself: War die bei dir betroffene Domain auch eine Subdomain?
[url=httpss://www.vermarktercheck.de]VermarkterCheck.de[/url] - Webseiten-Vermarkter im Vergleich

myself
PostRank 3
PostRank 3
Beiträge: 75
Registriert: 25.01.2008, 11:49

Beitrag von myself » 06.10.2008, 10:16

Keyser Soze hat geschrieben: @myself: War die bei dir betroffene Domain auch eine Subdomain?
sowohl als auch ... zu löschen geht grad gar nix, wie mir scheint :roll:

luzie
PostRank 10
PostRank 10
Beiträge: 4228
Registriert: 12.07.2007, 13:43
Wohnort: Hannover, Linden-Nord

Beitrag von luzie » 06.10.2008, 15:18

fragt doch mal hier nach (oder lest, die seitenlöschfragen kommen dort dauernd):

https://groups.google.com/group/Google_ ... er_Help-de

übrigens ist da nichts gehijackt oder sonstwas, das seiten-löschen ist eben auch so 'ne wissenschaft für sich, da dreht und windet sich google bis dort hinaus :roll:
Bilduzie - [url=httpss://plus.google.com/+HerbertSulzer/about]Google Official Bionic Top Contributor on Google Webmaster Central[/url]

Anonymous

Beitrag von Anonymous » 06.10.2008, 16:35

Mmmh per robots.txt gehts super. binner 15min war bei mir eine komplette subdomain ausm index. 500-600 seiten, pr weg alles. das geht mittlerweile verdammt gut.

und die dc-seiten per 301 auf die originalen seiter weiterleiten?

Keyser Soze
PostRank 9
PostRank 9
Beiträge: 1414
Registriert: 07.09.2004, 08:58

Beitrag von Keyser Soze » 06.10.2008, 20:22

zuendschnur hat geschrieben:Mmmh per robots.txt gehts super. binner 15min war bei mir eine komplette subdomain ausm index. 500-600 seiten, pr weg alles. das geht mittlerweile verdammt gut.
Ja, mit robots.txt gehts. Nutzt mir in meinem Fall aber nichts (selektives Löschen einzelner Parameter).
und die dc-seiten per 301 auf die originalen seiter weiterleiten?
Bringt den Nachteil mit sich, dass Google die URLs weiterhin ständig doppelt crawlen würde und die Serverbelastung deshalb höher bleibt.
[url=httpss://www.vermarktercheck.de]VermarkterCheck.de[/url] - Webseiten-Vermarkter im Vergleich

Keyser Soze
PostRank 9
PostRank 9
Beiträge: 1414
Registriert: 07.09.2004, 08:58

Beitrag von Keyser Soze » 21.10.2008, 15:15

Sauber, jetzt kann ich nicht mal über die robots.txt mehr URLs entfernen.

Ich habe mich an https://www.google.com/support/webmaste ... swer=40367 gehalten und die unerwünschten Parameter so geblockt in der robots.txt.
Anschließend habe ich unter dem Eintrag "robots.txt analysieren" in den Google Webmaster Tools getestet, ob die gewünschten URLs wirklich für den Googlebot gesperrt sind. Das wurde von Google nach dem Absenden des Check-Formulars bejaht.

Also habe ich dann mal testweise eine der betroffenen URLs unter "URLs entfernen" eingetragen. Und was passierte? Genau dieselbe dämliche Fehlermeldung wie im ersten Beitrag dieses Threads.
:bad-words:
[url=httpss://www.vermarktercheck.de]VermarkterCheck.de[/url] - Webseiten-Vermarkter im Vergleich

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag