Seite 1 von 1

Google Removal Tool - Eingabe größerer URL-Listen

Verfasst: 19.09.2005, 23:43
von Armi
Hi,

gibt es ein Tool, welches größere URL-Listen in das Google Removal
Tool reinjagen kann?

Löschung mittels robots.txt ist nicht möglich, da nicht alle einen bestimmten Anfang haben.

Man kann ja leider immer nur eine URL eingeben und hier geht es um ein paar Tausend.

Gruß,

Armi

Verfasst:
von

Google Removal Tool - Eingabe größerer URL-Listen

Verfasst: 19.09.2005, 23:49
von Kralle
Wo liegt denn der Unterschied darin, ob du die URLs manuell in die robots.txt einpflegst, oder sie in einer Liste über solch ein Tool übermittelst?

Google Removal Tool - Eingabe größerer URL-Listen

Verfasst: 20.09.2005, 00:01
von Armi
@Kralle

Die robots.txt ist doch sehr begrenzt. Da werden nur so 100-150 URLs akzeptiert, sonst ist die robots.txt für das Removal Tool zu groß.

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Google Removal Tool - Eingabe größerer URL-Listen

Verfasst: 20.09.2005, 00:06
von Kralle
Hmm, k. A., hatte allerdings auch noch kein solchen Fall. Lassen sich die URLs denn überhaupt nicht maskieren (Verzeichnisse, Wildcards, etc.)?
Existieren die denn überhaupt noch? Ansonsten würd ich eben die Zeit abwarten, bis sie automatisch gelöscht werden.

Google Removal Tool - Eingabe größerer URL-Listen

Verfasst: 20.09.2005, 00:09
von Armi
Wildcards gehen beim Removal Tool nicht, URLs sind auch nicht in nem bestimmten Verzeichnis bzw. haben keinen bestimmten Anfang.

> Existieren die denn überhaupt noch? Ansonsten würd ich eben die Zeit abwarten, > bis sie automatisch gelöscht werden.

Diese sind teilweise 1 1/2 Jahre alt, schon ewig nicht mehr verlinkt.

Google Removal Tool - Eingabe größerer URL-Listen

Verfasst: 20.09.2005, 01:08
von Kralle
Google akzeptiert in der robots.txt das "?" als Wildcard.
Armi hat geschrieben:Diese sind teilweise 1 1/2 Jahre alt, schon ewig nicht mehr verlinkt.
Nur noch als URL-Link ohne Desc vorhanden?

Google Removal Tool - Eingabe größerer URL-Listen

Verfasst: 20.09.2005, 09:58
von Armi
> Google akzeptiert in der robots.txt das "?" als Wildcard.

Nein, das funktioniert mit dem Removal Tool definitiv nicht.

Man kann schön via robots.txt alle URLs z.B. im gleichen Verzeichnis oder mit
dem gleichen Anfang löschen, aber URLs mit indiv. Anfang und gleiches Ende geht nicht.

> Nur noch als URL-Link ohne Desc vorhanden?

Nein, zum Großteil nicht.

Google Removal Tool - Eingabe größerer URL-Listen

Verfasst: 23.09.2005, 21:46
von Johny
Wieso überhaupt etwas löschen und nicht einfach umleiten am besten Mittels .htaccess, die können auch sehr sehr lang sein

Google Removal Tool - Eingabe größerer URL-Listen

Verfasst: 23.09.2005, 22:42
von bull
Tip:
Mit Kenntnissen in einer Skriptsprache und dem HTTP-Protokoll kann man sich recht schnell etwas zusammenfrickeln, das das Eintragen der URLs beim Removal Tool übernimmt ;)

Re: Google Removal Tool - Eingabe größerer URL-Listen

Verfasst: 04.10.2005, 14:25
von Armi
Johny hat geschrieben:Wieso überhaupt etwas löschen und nicht einfach umleiten am besten Mittels .htaccess, die können auch sehr sehr lang sein
Es ist das alte Google Problem: Was nicht mehr verlinkt ist, wird auch nicht mehr besucht. Diese Informationen bekommt Google nie.

Re: Google Removal Tool - Eingabe größerer URL-Listen

Verfasst: 04.10.2005, 14:27
von Armi
bull hat geschrieben:Tip:
Mit Kenntnissen in einer Skriptsprache und dem HTTP-Protokoll kann man sich recht schnell etwas zusammenfrickeln, das das Eintragen der URLs beim Removal Tool übernimmt ;)
So einfach geht das mit dem Removal Tool leider nicht.

Aber wer hier Möglichkeiten hat: PN ;-) Würden uns bestimmt einig werden ;-)

Google Removal Tool - Eingabe größerer URL-Listen

Verfasst: 06.10.2005, 18:23
von bull
Doch, Armi. ;)

Google Removal Tool - Eingabe größerer URL-Listen

Verfasst: 07.10.2005, 10:42
von Nullpointer
warum gibt es kein fertiges script? ist das was so besonderes?

Verfasst: 14.10.2005, 10:21
von moxi
..guten tag @ all...
..habe das gleiche problem mit dem removal-tool...
..viele tausende veraltete links und leider bisher keinen schimmer wie man das automatisieren könnte...
..(trotz googlen)...
..tipps @ bull ?

Verfasst: 20.10.2005, 16:31
von moxi
Wie kann ich effektiv doppelten Inhalt bei Google löschen? Unsere Site bekam durch fehlerhafte dynamische Verlinkung (Mod-Rewrite auf PHP-Seiten) sehr viele Duplikate (>19.000) im Stil von:
sitename.html?language=de, sitename.html?language=uk, ... -->verweisen alle auf den selben Inhalt...

Die Fehler sind inzwischen behoben, doch die Seiten sind nach wie vor bei Google drin.
Ich habe bereits versucht durch robots.txt - Einschränkungen (disallow) und .htaccess - Rewrite-Regeln (410) eine Löschung der Links bei Google zu erreichen, aber da hat sich in den letzten Wochen nichts getan.

In der Google-Hilfe (https://www.google.de/webmasters/remove.html) stehen die Zeilen:

Zum Entfernen dynamisch erstellter Seiten verwenden Sie den folgenden robots.txt-Eintrag:
User-agent: Googlebot
Disallow: /*?


Also hätten doch eigentlich folgende Anweisungen in der robots.txt Erfolg bringen müssen:

User-agent: Googlebot
Disallow: /*?language=de
Disallow: /*?language=uk
...

Aber ebenfalls seit geraumer Zeit keine Änderung in der Suchergebnis-Ausgabe bei Google.

Ich hab's dann mit Googles "automatischem System zum Entfernen von URLs" versucht (https://services.google.com:8882/urlconsole/controller). Dabei kann man durch gezielte robots.txt Einträge bestimmte Seiten löschen lassen. ---> Soweit die Theorie jedenfalls.

Google bringt jedes Mal einen Fehler mit dem Hinweis, dass keine Jokerzeichen in der robots.txt erlaubt seien. Das widerspricht doch den bereits genannten Tipps von Google selbst.

Wer hat mit dem Löschen mehrerer Seiten bei Google Erfahrungen gesammelt oder sonst einen nützlichen Tipp, wie ich das Problem beseitigen kann?