Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Google-Removal-Tool: Geht das bei Euch?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
mcchaos
PostRank 9
PostRank 9
Beiträge: 1414
Registriert: 27.07.2004, 19:18

Beitrag von mcchaos » 19.05.2005, 10:23

Hallo!

Ich möchte einige Seiten aus Google löschen lassen. Dazu habe ich erstmal testmäßig einige URLs ins Removal-Tool eingegeben - das ging. Dann habe ich noch ein paar mehr URLs eingegeben - und erhalte nun bei einigen "Anforderung abgelehnt" - obwohl die Seiten nicht mehr existiert und brav ein 410er gesendet wird. Was ist denn hier los? Was bedeutet das?

Nun denn, dann habe ich halt gedacht, ich versuche es mal per robots.txt, also ein Verzeichnis dort gesperrt, ins removal-tool gesteckt, seit 7 Tagen steht da auch "Löschen von www.domain.de/verzeichnis/ abgeschlossen" - aber natürlich sind alle Dateien sowie das Verzeichnis selbst z.B. noch in der site: abfrage zu finden.

Hat jemand ne Idee?


P.S.: Ich versuche seit 1 Jahr, diese Seiten "loszuwerden", sende 401er, 410er, 301er, alles mögliche, alles bisher ohne Erfolg, daher der Versuch mit dem Removal-Tool.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

marc75
PostRank 9
PostRank 9
Beiträge: 1916
Registriert: 06.10.2004, 09:36

Beitrag von marc75 » 19.05.2005, 11:00

also bei mir funktioniert es mit der htaccess.

sowohl mit ordnern oder einzelen Dateien, es gehen aber max. zwischen 90-100 Zeileneinträge auf einmal.

Die Löschung erfolgte jedesmals innerhalb von 24 Stunden meist sogar schneller.

mcchaos
PostRank 9
PostRank 9
Beiträge: 1414
Registriert: 27.07.2004, 19:18

Beitrag von mcchaos » 19.05.2005, 12:43

Hi Marc, danke für die Antwort. Was schickst Du denn wie in der .htaccess? Ich habe bisher immer den Header im PHP-Code versendet. Eine Beispielzeile wäre super!

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 19.05.2005, 22:32

Ich habe mit folgenden Methoden bei Google Erfolg gehabt:

metatags => Seite wurde beim nächsten Update entfernt (24h)

Code: Alles auswählen

<META NAME="Robots" CONTENT="NOINDEX,NOFOLLOW">
.htaccess => 410er Fehler => Seite wurde beim nächsten Update entfernt (24h)

Code: Alles auswählen

redirect gone /test/blah.html
Robots.txt funktioniert nur sehr langsam. Zwar hat Google beim nächsten Update den Snipped und Cache entfernt, allerdings wohl nicht das interne Ranking. d.h. die Seite ohne Snippet stand immer noch im Index. Habe dann über das URL Console Tool die Sachen rausgeschmissen (Robots.txt hochgeladen). Das hat auch wunderbar funktioniert. Es wurde allerdings von Problemen mit dieser Methode berichtet (wie z.B. das die Seite komplett aus dem Index fliegt etc.). Scheint also mit Risiko behaftet zu sein.

In meinem Fall liess sich das aber nicht anders machen, da Google bei mir im Forum ein paar Sachen aufgeschnappt hatte, die er nicht hätte indexieren sollen. Metatags und 410er bei einem Forum sind nicht gut machbar (wenn man den sonstigen Betrieb nicht unterbrechen will), also blieb nur die URL-Console übrig.

Toi Toi Toi bis jetzt ist alles so wie ich es haben möchte :)

Chris

marc75
PostRank 9
PostRank 9
Beiträge: 1916
Registriert: 06.10.2004, 09:36

Beitrag von marc75 » 20.05.2005, 07:19

habe erst mit 410 Gone per .htaccess rumprobiert, und dann einfach so per robots.txt seiten entfernt.

Das heisst in der robots.txt stand dann zum Beispiel

User-agent: *
Disallow: /ordner/
Disallow: /meine-datei.htm

hat er nach dem hochladen komplett entfernt, selbst als ich mich mal vertan hatte und eine existierende Sitemap in die robots eingetragen hatte wurde diese entfernt.

Mit Hochladen meine ich aber erst ins rootsverzeichnis der domain und dann im google tool die robots hochladen.

mcchaos
PostRank 9
PostRank 9
Beiträge: 1414
Registriert: 27.07.2004, 19:18

Beitrag von mcchaos » 20.05.2005, 07:58

Jetzt bin ich platt, das ist die Antwort von Google:

Thank you for your note. We'd like to assist you, but we're only able to remove pages from our index that return traditional 404 errors.

Also lt. Google nix mit 410... Oder verstehe ich da was falsch? Habe nochmal nachgehakt.

marc75
PostRank 9
PostRank 9
Beiträge: 1916
Registriert: 06.10.2004, 09:36

Beitrag von marc75 » 20.05.2005, 11:03

also mit dem removetool kannste jede Seite von deiner Domain entfernen, egal ob sie noch existiert oder nicht. Wenn die Seite noch existiert wird sie wieder nach 90 Tagen aufgenommen/gespidert, angeblich.

mcchaos
PostRank 9
PostRank 9
Beiträge: 1414
Registriert: 27.07.2004, 19:18

Beitrag von mcchaos » 20.05.2005, 13:09

marc75 hat geschrieben:also mit dem removetool kannste jede Seite von deiner Domain entfernen, egal ob sie noch existiert oder nicht.
Kann sein, dass das für die Löschung per robots.txt gilt. Wenn man die URL direkt eingibt, schaut Google, ob die Seite "da" ist (bzw. keinen 404er sendet) und verweigert sofort die Löschung, falls dem so ist.

marc75
PostRank 9
PostRank 9
Beiträge: 1916
Registriert: 06.10.2004, 09:36

Beitrag von marc75 » 20.05.2005, 14:27

das stimmt, ich würde die Funktion per robots.txt vorziehen, da man damit mehrere Dateien auf einmal löschen kann.

mcchaos
PostRank 9
PostRank 9
Beiträge: 1414
Registriert: 27.07.2004, 19:18

Beitrag von mcchaos » 20.05.2005, 14:42

marc75 hat geschrieben:das stimmt, ich würde die Funktion per robots.txt vorziehen, da man damit mehrere Dateien auf einmal löschen kann.
Ja, wenn das mit der robots.txt bei mir gehen würde... :bad-words:

Im Removal-Tool steht bei den dort gesperrten Ordnern seit über 1 Woche "abgeschlossen", aber die Seiten spuken noch munter im Index rum...

marc75
PostRank 9
PostRank 9
Beiträge: 1916
Registriert: 06.10.2004, 09:36

Beitrag von marc75 » 20.05.2005, 15:12

Im Removal-Tool steht seit über 1 Woche "abgeschlossen", aber die Seiten spuken noch munter im Index rum...

mal geschaut ob die pfade im index mit dem in der robots übereinstimmen, eventuell ist da irgendwo ein Leerzeichen drinne oder so.

mcchaos
PostRank 9
PostRank 9
Beiträge: 1414
Registriert: 27.07.2004, 19:18

Beitrag von mcchaos » 21.05.2005, 07:16

marc75 hat geschrieben: mal geschaut ob die pfade im index mit dem in der robots übereinstimmen, eventuell ist da irgendwo ein Leerzeichen drinne oder so.
Danke für den Tipp, stimmt *leider* alles 100%ig...

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag