Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Google-Removal-Tool: Was passiert?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
mcchaos
PostRank 9
PostRank 9
Beiträge: 1414
Registriert: 27.07.2004, 19:18

Beitrag von mcchaos » 26.04.2005, 11:28

Hallo!

Okay, ich hatte 2 Domains mit gleichem Inhalt. Da Google das nicht mag, hatte ich (vor fast einem Jahr...) auf die eine Domain ne 301 auf die andere gelegt.

Nun sind immer noch bei der Site-Abfrage der umgeleiteten Domain alle Seiten sichtbar. Die will ich raushaben, zumal die Cache-Versionen auch uralt sind, mit anderen Preisen usw. Da die 301 und auch sämtliche anderen Codes, die ich seit Monaten sende, von Google konsequent ignoriert wurden, will ich nun das Google-Removal-Tool bemühen.

Da ich nun schon einige Berichte hier von "abgeschossenen" Domains mit dem Tool gelesen habe, meine Fragen:

1.) Ich würde dann die Seiten am besten "einzeln" löschen, oder? Was kann ich falsch machen? Die Seiten schicken alle einen "410er"-Code.

2.) Hatte am Sonntag schon mal einzelne Seiten zum Löschen angemeldet, bisher ist nix passiert (obwohl da was von 24h steht?!). Wie lange dauert sowas normalerweise?

3.) Nehmen wir an, ich möchte doch wieder irgendwann mal gleichlautende Seiten in den Index stellen. Geht das? Hatte was von 90 Tagen gelesen, aber diese Frist scheint auch nicht immer zu funktionieren...

Danke!

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

mcchaos
PostRank 9
PostRank 9
Beiträge: 1414
Registriert: 27.07.2004, 19:18

Beitrag von mcchaos » 27.04.2005, 08:54

Steht immer noch auf "wird bearbeitet"...

Hasso
PostRank 9
PostRank 9
Beiträge: 2107
Registriert: 12.01.2004, 13:18

Beitrag von Hasso » 27.04.2005, 10:55

@mcchaos

Wie wäre es mit .robots.txt Lösung? :wink:

Grüsse
Hasso

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


mcchaos
PostRank 9
PostRank 9
Beiträge: 1414
Registriert: 27.07.2004, 19:18

Beitrag von mcchaos » 27.04.2005, 11:03

Hi Hasso,

die habe ich, aber die scheint Google nicht zu interessieren, sobald die Dateien einmal in Google drin sind. :cry:

Hasso
PostRank 9
PostRank 9
Beiträge: 2107
Registriert: 12.01.2004, 13:18

Beitrag von Hasso » 27.04.2005, 11:11

Hm... Schau noch mal zur Sicherheit nach, ob die .robots.txt auch korrekt ist.... ggf poste diese einfach hier rein.

Grüsse
Hasso

mcchaos
PostRank 9
PostRank 9
Beiträge: 1414
Registriert: 27.07.2004, 19:18

Beitrag von mcchaos » 27.04.2005, 11:16

Klar:

User-agent: *
Disallow: /alter_ordner/
Disallow: /alte_datei.php4
Disallow: /alte_datei2.php4
Disallow: /alte_datei3.php4
[Nochn paar Dateien]

Thats all.

Vielleicht sehe ich ja den Wald vor lauter Bäumen nicht :roll: Es gab aber auch schon andere Posts, die das bestätigen, dass Google - wenn eine Datei mal drin ist - die robots.txt diesbezüglich nicht beachtet.

*added*
Ups, das war die robots.txt von einer Domain, wo alte und neue Dateien gemischt sind (was auch nicht klappt). Die weitergeleitete Domain hat einfach:
User-agent: *
Disallow: /

marc75
PostRank 9
PostRank 9
Beiträge: 1916
Registriert: 06.10.2004, 09:36

Beitrag von marc75 » 27.04.2005, 12:57

User-agent: *
Disallow: /
wenn du das wählst, darf sich nix mehr hinter der Domain befinden.

User-agent: *
Disallow: /alter_ordner/
Disallow: /alte_datei.php4
Disallow: /alte_datei2.php4
Disallow: /alte_datei3.php4
Die Dateien und Ordner dürfen nicht mehr auf aufrufbar sein.

Ansonsten versuche doch mal ein 410 für die Dateien zu senden.

Hasso
PostRank 9
PostRank 9
Beiträge: 2107
Registriert: 12.01.2004, 13:18

Beitrag von Hasso » 27.04.2005, 13:42

Schön,
nimm erstmal jegliche Weiterleitungen raus, dann mach es mit dem "Remove a single page using meta tags" über der Menü von Remove URL Tool. Trage die entsprechende Seiten rein, diese müssen natürlich bereits entsprechende Meta Angabe für "Nicht-Indexierung" enthalten.

Du kannst sicher mit der Entfernung innerhalb von 48 Stunden rechnen, wenn Du alles korrekt machst. Jedoch darf man nicht vergessen, dass Du die auf diesem Wege entfernten Seiten, innerhalb von mindestens nächsten 100 Tage nicht in der INDEX rein bekommst Erfahrungsgemäß kann es auch mehr als 4 Monate dauern, je nach dem... : :o

Ich nutze das Tool nur in dem Notfall, normalerweise klappt es mit dem .robots.txt :wink:
Grüsse
Hasso

mcchaos
PostRank 9
PostRank 9
Beiträge: 1414
Registriert: 27.07.2004, 19:18

Beitrag von mcchaos » 27.04.2005, 13:51

Hi Hasso,

danke nochmal.

Ich sende schon 410er wie blöde.... Ich habe auf den Seiten, die noch drin sind, alles mögliche versucht: Auf 5 Seiten sende ich seit 6 Monaten 301er, auf 5 401er, auf 5 410er... alle noch drin.

Wie lange dauert es so bei Dir im Schnitt, wenn Du Seiten per robots.txt ausschließt?

Ach so, und noch was:
User-agent: *
Disallow: /
Nehme ich ja für die Domains, die auf meine Hauptdomains weiterleiten (und früher den gleichen Inhalt hatten). Problem ist: Eigentlich möchte ich ja, dass die index-Datei weiterhin gespidert wird (damit eingehende Links zumindest etwas Linkpop davon an die Hauptdomain abgeben). Hälst Du sowas für gültig?

User-agent: *
Disallow: /
Allow: index.php4

Viele Grüße!

Hasso
PostRank 9
PostRank 9
Beiträge: 2107
Registriert: 12.01.2004, 13:18

Beitrag von Hasso » 27.04.2005, 14:05

mcchaos hat geschrieben: User-agent: *
Disallow: /
Das würde ich nicht verwenden, da man damit die Indexierung gänzlich ausgeschlossen wird, das hat für Dich kein Nutzen, ist praktisch eine nichtsbringende Domain.

Die Lösung wäre:

- Erstmal die beiden Domains in verschiedene Verzeichnisse serverseitig(!) legen.
Das heißt, die beiden Domains sollen bei den Suchmaschinen als eingeständige Domains "auftreten"

- Bei der Zusatzdomain erstmal der Schritt machen, der ich vorhin beschrieben habe (Remove a single page using meta tags. )
- Nach dem nun die Seiten raus aus dem Index sind... prüfe es ruhig bei Google mit

Code: Alles auswählen

deinedomain.de site:deinedomain.de
dann bei der Zusatzdomain eine .htaccess datei mit der "301 Weiterleitung auf die Hauptdomain" einrichten.

Das was schon.

Grüsse
Hasso

Hasso
PostRank 9
PostRank 9
Beiträge: 2107
Registriert: 12.01.2004, 13:18

Beitrag von Hasso » 27.04.2005, 14:11

mcchaos hat geschrieben:
Wie lange dauert es so bei Dir im Schnitt, wenn Du Seiten per robots.txt ausschließt?
Letzes Mal hat`s etwa 2 Wochen allein mit der .robots.txt Lösung gedauert, bis die 2 einzelnen Seiten vollständig weg waren...
Man muss aber dazu sagen, es handelt sich hier um eine „Autoritätdomain“, die täglich von dem robot besucht wird.

Grüsse
Hasso

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag