Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Unterseiten aus Google entfernen

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
Ralf1
PostRank 5
PostRank 5
Beiträge: 219
Registriert: 06.11.2004, 12:13
Wohnort: Berlin

Beitrag von Ralf1 » 10.10.2005, 11:31

Hallo,

bin mir nicht sicher, deshalb bitte um kurze Hilfe.

Ich habe auf einer Domain ein Verzeichnis mit vielen Unterseiten.

domain.de/verzeichnis/seite1 bis domain.de/verzeichnis/seite1000 zum Beispiel.

Ich möchte nun mit der URL Konsole die Unterseiten seite1 bis seite1000 entfernen. Die Seite domain.de/verzeichnis soll in Google bleiben.

Folgende robots.txt Disallow: /verzeichnis/ würde auch die Seite killen.

Wäre das der richtige Eintrag in die robots.txt ??

Disallow: /verzeichnis/*

Dankeschön und Gruß
Ralf

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


besserwisser
PostRank 4
PostRank 4
Beiträge: 168
Registriert: 05.10.2004, 13:14
Wohnort: Monstern

Beitrag von besserwisser » 10.10.2005, 12:39

Schreib einfach in die robots.txt:

disallow /domain.de/verzeichnis/se

dann werden alle Seiten die mit "se" anfangen (also seite1-seite10000) gelöscht jedoch
verzeichnis/index.html nicht

Dann musst du nur noch die robots.txt bei der Url -console von Google zum automatischen Löschen von Seiten angeben.

Grüße :D

Ralf1
PostRank 5
PostRank 5
Beiträge: 219
Registriert: 06.11.2004, 12:13
Wohnort: Berlin

Beitrag von Ralf1 » 10.10.2005, 12:52

Hi,

schon mal gute Idee. Mein Fehler. Die Seiten heißen nicht seite1 bis seite1000. War nur Beispiel. Sind völlig unterschiedliche Namen. Geht also so nicht.

Gruß
Ralf

Ralf1
PostRank 5
PostRank 5
Beiträge: 219
Registriert: 06.11.2004, 12:13
Wohnort: Berlin

Beitrag von Ralf1 » 10.10.2005, 13:39

Hi,

getestet. Geht nicht. Google akzeptiert * nicht.

Gruß
Ralf

besserwisser
PostRank 4
PostRank 4
Beiträge: 168
Registriert: 05.10.2004, 13:14
Wohnort: Monstern

Beitrag von besserwisser » 11.10.2005, 21:20

also der * als Wildcard gehört nicht zur gültigen Nomenklatur in der robots.txt.

es ist so wie ich es oben beschrieben habe: Ein Weglassen der Endung ist zulässig und ist der einzige "wildcard" Ersatz.

Viele hier haben allerdings berichtet, dass google entgegen dieser Richtlinie auch * und ? als Wildcards akzeptiert.

Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 11.10.2005, 21:49

Google akzeptiert * in der URL Console nicht. In der robots.txt funktioniert das sehr wohl und ist auch in der FAQ beschrieben.

Allerdings sollte man dann eine eigene "Rubrik" fuer den Googlebot aufmachen, damit die anderen Bots nicht verwirrt werden.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag